我們擅長商業(yè)策略與用戶體驗的完美結合。
歡迎瀏覽我們的案例。
Meta 最新推出的視頻跟蹤工具CoTracker,發(fā)布沒多久就在 GitHub 上斬獲了 1.4k 星標。
從官方發(fā)布的幾個 DEMO 來看,效果還是很震撼的。
對這個新“玩具”,有網友評論說,它不僅能改變物體追蹤技術,也將在體育(動作)分析、野生動物追蹤,甚至電影后期領域掀起一場新的革命。
不過,在線 DEMO 是個簡易版本,還不支持自定義跟蹤位置,只能根據(jù)輸入的跟蹤數(shù)量等距分配。
但是如果自己部署、用代碼操縱的話,就可以設置任意跟蹤點了。
說到這我們正好來看一下 CoTracker 該怎么部署。
首先是 Colab 版本,我們剛剛說到的自定義跟蹤點也在 Colab 當中。
Colab 的過程不必過多介紹,進入之后運行筆記中的代碼就可以了。
而如果想自己動手的話,最簡單的方式是從 torch.hub 中直接調用已完成預訓練的版本。
如果要對模型進行評估或訓練,那么使用 GitHub Repo 更為合適。
首先要安裝一下程序和相關依賴:
然后下載模型:
有關評估和訓練的方式,可以到 GitHub 項目頁來查看,鏈接放在了文末。
那么,CoTracker 又是怎么實現(xiàn)像素級追蹤的呢?
評分超過 DINOv2
雖然都是追蹤,但 CoTracker 和物體追蹤模型有很大區(qū)別。
CoTracker 并沒有基于語義理解對視頻中物體進行分割的過程,而是把重點放在了像素點上。
底層方面,CoTracker 采用了 Transformer 架構。
Transformer 編碼了視頻中點的跟蹤信息,并迭代更新點的位置。
推理上,CoTracker 還采用了一種窗口機制,在時間軸上劃分出滑動窗口。
CoTracker 使用上個窗口的輸出對后面的窗口進行初始化,并在每個窗口上運行多次 Transformer 迭代。
這樣就使得 CoTracker 能夠對更長的視頻進行像素級跟蹤。
總之,經過一番訓練之后,CoTracker 取得了一份不俗的成績單。
在 FastCapture 數(shù)據(jù)集測試上,CoTracker 的成績在一眾模型中脫穎而出,其中也包括 Meta 自家的 DINOv2。
總之,喜歡的話,就趕緊體驗一下試試吧!
Meta推出像素級動作追蹤模型,簡易版在線可玩 | GitHub 1.4K星 09:38:14
微軟發(fā)布 Win11 Beta 226x1.2271 更新:重點修復系統(tǒng)崩潰問題 09:35:27
Google 舉辦“2023 Google 開發(fā)者大會”,助力中國開發(fā)者實現(xiàn)新突破 09:28:35
國產咖啡出海,能否闖出“一席之地”? 09:24:48
新平臺、新內飾、新智能,比亞迪海豹DM-i正式上市售價16.68萬元起 09:17:07
OpenAI 官宣 11 月 6 日舉辦首屆開發(fā)者大會,已有超 200 萬人調用 GPT 等大模型 API 09:12:04