มีอะไรใหม่ใน Google Gemini: AI สามารถ "มองเห็น" หน้าจอและตอบคําถามแบบเรียลไทม์
อัปเดตเมื่อ: 24-0-0 0:0:0

Google เพิ่งเปิดตัวฟีเจอร์ AI ที่ปฏิวัติวงการบนแพลตฟอร์ม Gemini Live และข่าวดังกล่าวได้รับการยืนยันอย่างเป็นทางการโดยอีเมลจาก Alex Joseph โฆษกของ Google

คุณลักษณะใหม่นี้เพิ่มความสามารถ "การมองเห็น" ให้กับ AI ทําให้สามารถดูฟุตเทจแบบเรียลไทม์ได้โดยตรงจากหน้าจออุปกรณ์ของผู้ใช้หรือกล้องโทรศัพท์มือถือ และตอบสนองต่อความต้องการในการสืบค้นของผู้ใช้ได้อย่างรวดเร็ว ความก้าวหน้านี้ทําให้ผู้ใช้ได้รับประสบการณ์การโต้ตอบที่ใช้งานง่ายและมีประสิทธิภาพมากขึ้น

อันที่จริง การกําเนิดของฟีเจอร์นี้ย้อนกลับไปเมื่อเกือบหนึ่งปีที่แล้ว เมื่อ Google ได้แสดงโครงการที่เรียกว่า Project Astra เป็นครั้งแรก โครงการได้รับการพัฒนาและปรับแต่งอย่างต่อเนื่องส่งผลให้เกิดคุณสมบัติที่เป็นนวัตกรรมนี้

据悉,已有部分小米手机用户有幸体验了这一功能,并展示了Gemini在屏幕阅读方面的卓越能力。Gemini作为Google DeepMind在2023年12月6日发布的人工智能模型,具备同时处理文本、图像、音频、视频及代码等多类信息的能力,展现了其强大的多功能性。

Google วางแผนที่จะผลักดันให้ผู้ใช้อัปเกรดเป็น Gemini มากขึ้นในอีกไม่กี่เดือนข้างหน้า โดยค่อยๆ แทนที่ Google Assistant รุ่นก่อนหน้า การเคลื่อนไหวนี้เป็นการประกาศก้าวสําคัญในด้านปัญญาประดิษฐ์ ทําให้ผู้ใช้ได้รับประสบการณ์การบริการที่ชาญฉลาดและสะดวกสบายยิ่งขึ้น