โปรเจ็กต์ที่ขับเคลื่อนด้วย AI เจ๋งๆ ทั้งหมดในผลงาน


เพิ่มตัวเลือกภาษาใน “แปลภาษา” สร้างความรู้สึกของสถานที่ใน Maps และแว่นตาล่ามแห่งอนาคต Google ได้จัดการประชุมนักพัฒนา I/O ประจำปีในวันนี้

โดยประกาศฮาร์ดแวร์ เช่น โทรศัพท์ Pixel รุ่นใหม่, Pixel Watch ทรงกลม และแม้แต่แว่นตาแห่งอนาคตที่ล้อเลียนซึ่งแสดงการแปลภาษาแบบเรียลไทม์ในความเป็นจริงยิ่ง พวกเขายังเปิดเผยคุณสมบัติใหม่ เช่น ตัวเลือกสรุปที่มาถึง Google เอกสาร (คิดว่าเป็น TL; DR ที่สร้างโดย AI) และแอป Wallet ที่สามารถเก็บ ID ดิจิทัลหรือบัตรวัคซีนได้

โดยเฉพาะอย่างยิ่ง ยักษ์ใหญ่ด้านเทคโนโลยียังเน้นย้ำว่า AI อนุญาตให้พวกเขาสร้างฟีเจอร์ใหม่ๆ โปรเจ็กต์ที่ขับเคลื่อนด้วย AI ผ่านบริการและแอปต่างๆ ได้อย่างไร เช่น แปลภาษา การค้นหา แผนที่ และอื่นๆ นี่คือสิ่งที่ผู้ใช้อัปเดตสามารถคาดหวังได้ว่าจะเข้ามาแทนที่ในเร็วๆ นี้และในอนาคต งานของ Google เกี่ยวกับโมเดลภาษาทำให้สามารถขยายความสามารถในการแปลได้ Google กล่าวว่ากำลังเพิ่มภาษาใหม่ 24 ภาษา

ใน Google Translate รวมถึง Bhojpuri, Lingala และ Quechua นอกเหนือจากภาษาใหม่เหล่านี้แล้ว Google ยังได้เผยแพร่งานวิจัยเกี่ยวกับวิธีที่พวกเขาต้องการสร้างระบบแปลภาษาด้วยคอมพิวเตอร์สำหรับภาษาที่ไม่มีชุดข้อมูลการแปลขนาดใหญ่โดยใช้ชุดข้อมูลภาษาเดียวคุณภาพสูง พวกเขากำลังเรียกเทคนิคนี้ว่า Zero-Shot Machine Translation เครื่องมือ AI ใหม่นี้จาก Google สามารถเปลี่ยนวิธีที่เราค้นหาทางออนไลน์

เทคนิคนี้สร้างการแปลโดยไม่ต้องใช้พจนานุกรมการแปลแบบละเอียดและแบบดั้งเดิม ตามบล็อก ในการทำเช่นนี้

พวกเขาได้ฝึกโมเดลภาษาเพื่อ “เรียนรู้การเป็นตัวแทนของภาษาที่มีทรัพยากรไม่เพียงพอโดยตรงจากข้อความภาษาเดียวโดยใช้งาน MASS” ซึ่งการแก้ปัญหาต้องใช้แบบจำลองเพื่อสร้าง “การแสดงภาษาที่ซับซ้อนใน คำถามพัฒนาความเข้าใจที่ซับซ้อนว่าคำเกี่ยวข้องกับคำอื่น ๆ ในประโยคอย่างไร” Google ยังเปิดตัวคำบรรยายที่แปลอัตโนมัติใน 16 ภาษาบน YouTube

นอกเหนือจากรูปแบบการรู้จำคำพูดที่พวกเขาใช้อยู่แล้วเพื่อสร้างการถอดเสียงเป็นข้อความสำหรับวิดีโอ คุณลักษณะนี้จะมาถึงเนื้อหาภาษายูเครนในเดือนหน้าซึ่งเป็นส่วนหนึ่งของความพยายามที่จะเพิ่มการเข้าถึงข้อมูลที่ถูกต้องเกี่ยวกับสงคราม

ในช่วงไม่กี่ปีที่ผ่านมา Google Search ได้แนะนำเครื่องมือต่างๆ มากมายเพื่อให้ผู้คนค้นหาสิ่งที่ต้องการได้ง่ายขึ้นในรูปแบบต่างๆ รวมถึงการค้นหาด้วยเสียง ฮัมเพื่อค้นหา Google Lens และการค้นหาหลายรายการเมื่อเร็วๆ นี้ อนุญาตให้ผู้ใช้รวมรูปภาพกับข้อความแจ้งในแบบสอบถาม เทคโนโลยีต่อเนื่องหลายรูปแบบยังใช้ข้อความ เสียง และวิดีโอเพื่อสร้าง “บท” ที่สร้างขึ้นโดยอัตโนมัติในวิดีโอ YouTube Google ได้เปิดตัวคุณลักษณะที่เรียกว่าการค้นหา “ใกล้ฉัน” โดยใช้วิธีดังนี้: ในแอป Google ผู้ใช้สามารถถ่ายภาพหรืออัปโหลดภาพหน้าจอ และเพิ่มข้อความ “ใกล้ฉัน”

เพื่อค้นหาร้านค้าปลีกและร้านอาหารในพื้นที่ที่อาจมีเครื่องแต่งกาย สินค้า หรืออาหารที่พวกเขากำลังมองหา สำหรับ. ตัวอย่างเช่น หากคุณกำลังซ่อม faucet ที่เสีย คุณสามารถถ่ายรูปชิ้นส่วนที่ผิดพลาดและค้นหาได้ที่ร้านฮาร์ดแวร์ใกล้เคียง

อีกตัวอย่างหนึ่ง หากคุณเจออาหารหน้าตาน่าอร่อยทางออนไลน์ที่คุณอยากลองทำ คุณสามารถถ่ายรูปอาหารนั้นแล้ว Google จะบอกคุณว่ามันคืออะไร และแนะนำร้านอาหารท้องถิ่นที่ได้รับคะแนนสูงซึ่งให้บริการผ่านเดลิเวอรี่ . การค้นหาหลายรายการของ Google จะ “เข้าใจความซับซ้อนของอาหารจานนี้ มันจะรวมเข้ากับความตั้งใจของคุณ

ความจริงที่ว่าคุณกำลังมองหาร้านอาหารท้องถิ่น จากนั้นจะสแกนรูปภาพ รีวิว และผลงานของชุมชนนับล้านบนแผนที่เพื่อค้นหาร้านอาหารที่อยู่ใกล้เคียง ในพื้นที่” นิค เบลล์ หัวหน้าฝ่ายประสบการณ์การค้นหาของ Google อธิบายในการแถลงข่าว ข้อมูลท้องถิ่นผ่านการค้นหาหลายรายการจะพร้อมใช้งานทั่วโลกในภาษาอังกฤษในช่วงปลายปีนี้ และเผยแพร่ไปยังภาษาอื่นๆ เพิ่มเติมเมื่อเวลาผ่านไป

 

สนับสนุนโดย.    ufabet