Google Lens sebenarnya menunjukkan bagaimana AI dapat membuat hidup lebih mudah

Platform AI-AR Google akan segera ada di mana-mana, dan ini bekerja sangat baik sekarang

Selama inti konferensi pengembang I/O Google, kecerdasan buatan sekali lagi adalah tema yang menentukan dan lampu penuntun Google untuk masa depan. AI sekarang terjalin ke dalam segala hal yang dilakukan Google, dan tidak ada manfaat dari pendekatan pertama AI Sundar Pichai yang lebih nyata daripada dengan Google Lens.

Platform Lens menggabungkan kemajuan paling mutakhir perusahaan dalam visi komputer dan pemrosesan bahasa alami dengan kekuatan Google Search. Dengan demikian, Google membuat argumen yang meyakinkan mengapa cara mengembangkan AI akan menghasilkan lebih banyak perangkat lunak yang langsung berguna daripada saingan terbesarnya, seperti Amazon dan Facebook. Hal ini juga memberikan contoh yang tidak dapat dijelaskan oleh AI tentang apa yang dapat dilakukan teknologi bagi konsumen, bukan hanya untuk sistem di bawah batas seperti pusat data dan jaringan periklanan atau untuk kasus penggunaan perangkat keras yang lebih terbatas seperti speaker pintar.

Lens secara efektif adalah mesin Google untuk melihat, memahami, dan menambah dunia nyata. Ini hidup di jendela bidik kamera perangkat lunak bertenaga Google seperti Asisten dan, setelah pengumuman di I/O tahun ini , dalam kamera asli smartphone Android tingkat atas. Untuk Google, apa pun yang dapat dikenali manusia adalah permainan yang adil untuk Lens. Itu termasuk benda-benda dan lingkungan, orang-orang dan binatang (atau bahkan foto binatang), dan potongan teks apa pun yang muncul di rambu-rambu jalan, layar, menu restoran, dan buku. Dari sana, Google menggunakan basis pengetahuan Penelusuran luas untuk memunculkan info yang dapat ditindaklanjuti seperti tautan pembelian untuk produk dan deskripsi Wikipedia tentang landmark terkenal. Tujuannya adalah untuk memberikan konteks kepada pengguna tentang lingkungan mereka dan setiap dan semua objek dalam lingkungan tersebut.


Platform, pertama kali diumumkan pada konferensi I/O tahun lalu, sekarang sedang terintegrasi langsung ke kamera Android pada perangkat Google Pixel, serta ponsel unggulan dari LG, Motorola, Xiaomi, dan lainnya. Selain itu, Google mengumumkan bahwa Lens sekarang bekerja secara real-time dan dapat mem-parsing teks seperti yang muncul di dunia nyata. Google Lens bahkan dapat mengenali gaya pakaian dan furnitur untuk memberi daya kepada mesin rekomendasi yang disebut perusahaan Style Match, yang dirancang untuk membantu pengguna Lens menghiasi rumah mereka dan membuat pakaian yang cocok.

Lens, yang sebelum hari ini hanya ada di Asisten Google, juga bergerak di luar aplikasi Asisten, kamera, dan Google Foto. Ini juga membantu kekuatan fitur baru dalam produk yang berdekatan seperti Google Maps. Dalam satu demo eye-popping khusus, Google memamerkan bagaimana Lens dapat memperkuat versi realitas yang diperluas dari Street View memanggil lokasi dan landmark terkenal dengan hamparan visual.

Dalam demo langsung hari ini di I/O, saya mendapat kesempatan untuk mencoba beberapa fitur Google Lens baru pada LG G7 ThinQ. Fitur ini sekarang bekerja secara real time, seperti yang diiklankan, dan mampu mengidentifikasi sejumlah produk yang berbeda dari kaos ke buku hingga lukisan dengan hanya beberapa kekhawatiran yang bisa dimengerti.

Misalnya, dalam satu situasi, Google Lens menganggap sepatu adalah lukisan Picasso, hanya karena sejenak kebingungan tentang lokasi objek. Pindah lebih dekat ke objek yang diinginkan saya ingin mengenali, sepatu dalam hal ini, memperbaiki masalah. Bahkan ketika kamera terlalu dekat untuk Lens untuk mengidentifikasi objek, atau jika kesulitan menemukan apa itu, Anda dapat mengetuk layar dan Google akan memberikan tebakan terbaiknya dengan kalimat singkat seperti, “Apakah itu... seni? "atau," Ini terlihat seperti lukisan."

Yang paling mengesankan adalah kemampuan Google Lens untuk mengurai teks dan mengekstraknya dari dunia nyata. Landasan dasar untuk ini telah diletakkan dengan produk seperti Google Translate yang dapat mengubah tanda jalan atau menu restoran dalam bahasa asing ke bahasa asli Anda hanya dengan menjentikkan foto. Kini setelah kemajuan tersebut telah disempurnakan dan dibangun menjadi Lens, Anda dapat melakukannya secara langsung dengan item menu makan malam atau bahkan bongkahan besar teks dalam sebuah buku.

Dalam demo kami, kami scan sebuah halaman masakan Italia ke permukaan foto barang-barang di Google Image Search, selain video YouTube untuk bagaimana membuat makanan juga. Kami juga bisa menerjemahkan header menu dari Italia ke dalam bahasa Inggris dengan hanya memilih bagian dari menu, tindakan yang secara otomatis mengubah teks ke dalam format dicari. Dari sana, Anda dapat menyalin dan menempelkan teks itu di tempat lain di ponsel Anda dan bahkan menerjemahkannya dengan cepat. Di sinilah Google Lens benar-benar bersinar dengan menggabungkan kekuatan perusahaan di sejumlah produk secara bersamaan.

Komentar

Postingan populer dari blog ini

Di mana game Windows 10 saya disimpan? Inilah jawaban singkatnya

Pemburu Planet Baru NASA di Jalur untuk Memulai Kerja Ilmiah Bulan Ini

Bagaimana biologi sintetis akan - dan mungkin tidak - mengubah masa depan makanan