Meta AI 最近發佈了一個名為 Segment Anything Model (SAM) 的圖像分割模型,可以識別和分離圖像和視頻中的任何物體,無論是訓練時遇到過的還是沒有遇到過的 。Meta AI SAM (Segment Anything Model) 超強識別圖像功能將會大大提升AI在視像方面的能力,降低研究所花時間。
Meta AI SAM (Segment Anything Model) 識別圖像超強,其特點和優勢有以下幾點:
– 是一個基礎模型,可以處理多種模態的輸入,如文本、關鍵點、邊界框等,從而實現互動式或自動的圖像分割。
– 使用了一個名為 Segment Anything 1-Billion mask (SA-1B) 的數據集來訓練,這是目前最大的圖像分割數據集,包含了超過 11 億個分割遮罩,覆蓋了多種場景和物體
– 具有很強的泛化能力,可以在極少樣本的情況下遷移到新的任務和領域,無需額外的微調或數據註釋。
– 可以套用多種用例,如 AR/VR、內容創作、科學研究等,提供更精確和靈活的圖像分割功能 。
GitHub登場!
Meta AI 已經將 SAM 的相關代碼開源在 GitHub 上,並提供了一個互動式的演示網站,讓使用者可以體驗 SAM 的強大效果。SAM 是一個開創性的圖像分割模型,為計算機視覺領域帶來了新的範式和可能性。
參考:https://ai.facebook.com/research/publications/segment-anything/