Meta ได้เปิดตัว Segment Anything Model 2 (SAM 2) ซึ่งเป็นรุ่นใหม่ที่พัฒนาเพิ่มเติมจาก SAM เดิมเพื่อรองรับการแยกวัตถุในวิดีโอและภาพนิ่ง SAM 2 ถูกออกแบบมาเพื่อทำการแยกวัตถุแบบเรียลไทม์และสามารถทำงานได้ดีกับวัตถุและโดเมนภาพที่ไม่เคยเห็นมาก่อน นอกจากนี้ SAM 2 ยังเปิดโอกาสให้ใช้งานหลากหลาย เช่น การสร้างเอฟเฟกต์วิดีโอใหม่ ๆ และช่วยในการประมวลผลข้อมูลภาพที่รวดเร็วขึ้น ซึ่งช่วยในการสร้างระบบคอมพิวเตอร์วิชั่นที่ดียิ่งขึ้น
การเปิดตัว SAM 2 มาพร้อมกับการแชร์โค้ดและน้ำหนักโมเดลภายใต้ Apache 2.0 license รวมถึงชุดข้อมูล SA-V ที่มีวิดีโอจริงประมาณ 51,000 คลิปและมาสก์มากกว่า 600,000 ชุด โมเดลนี้สามารถแยกวัตถุในวิดีโอและภาพนิ่งได้โดยไม่ต้องปรับแต่งเพิ่มเติม เปิดโอกาสให้ผู้ใช้งานทั่วไปและชุมชน AI สามารถนำไปพัฒนาและใช้งานได้ทันที
SAM 2 ได้รับการออกแบบให้ใช้งานได้กับทั้งวิดีโอและภาพนิ่ง โดยมีระบบการจัดเก็บข้อมูลความจำที่ช่วยให้การแยกวัตถุในแต่ละเฟรมวิดีโอเป็นไปอย่างแม่นยำและรวดเร็ว โมเดลนี้มีศักยภาพในการปรับปรุงระบบคอมพิวเตอร์วิชั่นในหลากหลายอุตสาหกรรม ตั้งแต่การติดตามวัตถุในวิดีโอสำหรับการสร้างเอฟเฟกต์วิดีโอไปจนถึงการช่วยงานวิจัยทางวิทยาศาสตร์และการแพทย์
ที่มา : Meta