Meta ประกาศอัปเดตฟีเจอร์ใหม่บน Ray-Ban smart glasses ได้แก่ live AI, translations, และ Shazam ให้ใช้งานสำหรับผู้ใช้ทั้งหมดในสหรัฐอเมริกาและแคนาดา
Meta เปิดตัว live AI, การแปลภาษา และ Shazam บนแว่นตาอัจฉริยะ
Meta ประกาศเปิดตัวคุณสมบัติใหม่บน Ray-Ban smart glasses : live AI, translations, และ Shazam ทั้ง live AI และ การแปลภาษา จำกัดเฉพาะสมาชิกของโปรแกรมเข้าถึงล่วงหน้าของ Meta ในขณะที่การ Shazam พร้อมใช้งานสำหรับผู้ใช้ทั้งหมดในสหรัฐอเมริกาและแคนาดา
ฟีเจอร์ live AI ช่วยให้คุณสนทนากับผู้ช่วย AI ของ Meta ได้อย่างเป็นธรรมชาติในขณะที่มันมองเห็นสภาพแวดล้อมของเราอย่างต่อเนื่อง ตัวอย่างเช่น หากเรากำลังเลือกซื้อผักผลไม้ในร้านขายของชำ เราจะสามารถขอให้ AI ของ Meta แนะนำสูตรอาหารบางอย่างตามส่วนผสมที่เรากำลังมองหาได้ตามทฤษฎี Meta กล่าวว่าผู้ใช้จะสามารถใช้คุณสมบัติ AI สดได้ประมาณ 30 นาทีต่อครั้งในการชาร์จเต็ม
ส่วนฟีเจอร์ การแปลภาษา (translations) ช่วยให้แว่นตาแปลคำพูดแบบเรียลไทม์ระหว่างภาษาอังกฤษและสเปน ฝรั่งเศส หรืออิตาลี เราสามารถเลือกที่จะฟังการแปลผ่านแว่นตา หรือดูสำเนาบนโทรศัพท์ของเรา โดยต้องดาวน์โหลดคู่ภาษาไว้ล่วงหน้า รวมถึงระบุว่าเราพูดภาษาอะไรและคู่สนทนาของเราพูดภาษาอะไร
การสนับสนุน Shazam เราเพียงแค่ต้องแจ้งเตือน Meta AI เมื่อเราได้ยินเพลง Shazam จะสามารถบอกเราได้ว่ากำลังฟังอะไรอยู่ คุณสามารถชม Mark Zuckerberg ซีอีโอของ Meta สาธิตได้ใน Instagram reel
Andrew Bosworth CTO ของ Meta กล่าวว่า “ปี 2567 คือปีที่แว่นตา AI ก้าวเข้าสู่ช่วงขาขึ้น แว่นตาอัจฉริยะอาจเป็นรูปแบบที่เหมาะสมที่สุดสำหรับอุปกรณ์เฉพาะ AI และเป็นหมวดหมู่ฮาร์ดแวร์แรกที่จะถูกกำหนดโดย AI ตั้งแต่เริ่มต้นอย่างสมบูรณ์
ที่มา – www.theverge.com