Sejak OpenAI meluncurkan ChatGPT ke dunia, kami telah melihatnya membawa orang yang tidak Anda percayai. Beberapa orang mengklaim bahwa chatbot memiliki agenda yang terbangun. Senator AS Chris Murphy tweeted bahwa ChatGPT “mengajarkan” sendiri kimia tingkat lanjut. Bahkan jurnalis teknologi berpengalaman telah menulis cerita tentang cara kerjanya Chatbot jatuh cinta pada mereka. Sepertinya dunia bereaksi terhadap AI dengan cara yang sama seperti reaksi manusia gua ketika mereka pertama kali melihat api: dengan kebingungan dan ocehan yang tidak jelas.
Salah satu contoh terbaru berasal dari 60 menit, yang menyuarakan suaranya dengan episode baru yang berfokus pada inovasi dalam kecerdasan buatan yang ditayangkan di CBS Sunday. Episode tersebut menampilkan wawancara dengan orang-orang seperti Sundar Pichai, CEO Google, dan menyertakan konten yang meragukan Klaim tentang salah satu model bahasa besar perusahaan (LLM).
Segmennya adalah tentang perilaku yang muncul, yang menggambarkan efek samping tak terduga dari sistem AI yang belum tentu dimaksudkan oleh pengembang model. Kami telah melihat perilaku yang muncul dalam proyek AI terbaru lainnya. Misalnya, para peneliti baru-baru ini menggunakan ChatGPT untuk membuat persona digital dengan tujuan dan latar belakang dalam sebuah penelitian yang dipublikasikan secara online minggu lalu. Mereka mencatat bahwa sistem melakukan berbagai perilaku yang muncul seperti berbagi informasi baru dari satu karakter ke karakter lain dan bahkan membentuk hubungan satu sama lain — sesuatu yang awalnya tidak direncanakan oleh penulis untuk sistem tersebut.
Emerging behavior tentunya menjadi topik yang menarik untuk didiskusikan dalam sebuah program berita. Dimanakah 60 menit Video mengambil giliran, ketika kita belajar tentang klaim bahwa chatbot Google benar-benar dapat mengajarkan dirinya sendiri bahasa yang tidak diketahui sebelumnya setelah ditanya dalam bahasa itu. “Misalnya, satu program AI Google diadaptasi sendiri setelah diberitahu untuk melakukannya dalam bahasa Bangladesh, yang tidak dilatih untuk diketahui,” kata reporter CBS News Scott Pelley dalam video tersebut.
Ternyata dia adalah seorang BS lengkap. Robot tidak hanya tidak dapat mempelajari bahasa asing yang “tidak pernah dilatih untuk diketahui”, tetapi juga tidak pernah mengajarkan keterampilan baru untuk dirinya sendiri. Seluruh klip tersebut mendorong para peneliti dan pakar AI untuk mengkritik pembingkaian acara berita yang menyesatkan di Twitter.
“Saya tentu berharap beberapa jurnalis akan meninjau seluruh segmen @60Minute di Google Bard sebagai studi kasus tentang cara *tidak* meliput AI,” kata Melanie Mitchell, peneliti AI dan profesor di Institut Santa Fe. tulisnya dalam tweet.
“Berhentilah berpikir ajaib tentang teknologi! #AI tidak mungkin merespons dalam bahasa Bengali, kecuali data pelatihan telah terkontaminasi bahasa Bengali atau dilatih dalam bahasa yang tumpang tindih dengan bahasa Bengali, seperti bahasa Assam, Oriya, atau Hindi,” kata Ms. Alex O. peneliti di Massachusetts Institute of Technology, Ditambahkan di pos lain.
Perlu diperhatikan 60 menit Klip itu tidak mengatakan dengan tepat AI apa yang mereka gunakan. Namun, juru bicara CBS memberi tahu The Daily Beast bahwa segmen tersebut bukanlah diskusi tentang Bard tetapi program kecerdasan buatan terpisah yang disebut PaLM — teknologi inti yang kemudian diintegrasikan ke dalam Bard.
Alasan bagian ini sangat membuat frustrasi para ahli ini adalah karena bagian ini mengabaikan dan bermain-main dengan kenyataan tentang apa yang sebenarnya dapat dilakukan oleh AI generatif. Itu tidak dapat “mengajar” dirinya sendiri suatu bahasa jika tidak memiliki akses ke bahasa itu sejak awal. Ini seperti mencoba mengajari diri sendiri bahasa Mandarin tetapi Anda baru mendengarnya setelah seseorang menanyakan bahasa Mandarin kepada Anda sekali.
Lagi pula, bahasa itu sangat kompleks — dengan nuansa dan aturan yang membutuhkan tingkat konteks yang luar biasa untuk dipahami dan dikomunikasikan. Tidak ada cara bahkan untuk LLM tercanggih untuk menangani dan mempelajari semua itu dengan beberapa petunjuk.
PaLM sudah dilatih dengan bahasa Bengali, bahasa yang dominan di Bangladesh. Margaret Mitchell (tidak ada hubungan), peneliti di Lab Startup di AT HuggingFace dan sebelumnya di Google, menjelaskan hal ini di Menciak topik Buat argumen mengapa 60 menit salah.
Mitchell mencatat bahwa dalam demonstrasi tahun 2022, Google menunjukkan bahwa PaLM dapat berkomunikasi dan menanggapi permintaan dalam bahasa Bengali. itu Kertas di belakang Palm Terungkap dalam lembar data bahwa model tersebut sebenarnya dilatih pada bahasa dengan sekitar 194 juta simbol dalam alfabet Bengali.
Jadi dia tidak secara ajaib mempelajari apa pun melalui satu prompt. Dia sudah tahu bahasanya.
Tidak jelas mengapa Pichai, CEO Google, duduk untuk wawancara dan membiarkan tuduhan ini terus berlanjut tanpa perlawanan. (Google tidak menanggapi permintaan komentar.) Sejak episode tersebut ditayangkan, dia tetap diam meskipun para ahli menunjukkan klaim menyesatkan dan palsu yang dibuat dalam klip tersebut. Di Twitter Margaret Mitchell Usul Alasan di balik ini bisa jadi kombinasi dari para pemimpin Google yang tidak mengetahui cara kerja produk mereka dan juga karena hal itu memungkinkan penyebaran pesan yang buruk untuk mengatasi hype saat ini seputar AI generatif.
“Saya menduga [Google executives] Saya benar-benar tidak mengerti cara kerjanya, Mitchell kicauan. “Apa yang saya tulis di atas kemungkinan besar adalah berita bagi mereka. Dan mereka termotivasi untuk tidak mengerti (BICARA MATA ANDA PADA LEMBAR DATA INI!!).”
Paruh kedua video juga terlihat bermasalah karena Pichai dan Billy mendiskusikan cerita pendek yang dibuat Bard yang “terdengar sangat manusiawi”, membuat kedua pria itu agak terguncang.
Sebenarnya, produk ini bukanlah sihir. Mereka tidak bisa menjadi “manusia” karena mereka bukan manusia. Mereka adalah prediktor teks seperti yang ada di ponsel Anda, dilatih untuk menghasilkan kata dan frasa yang paling mungkin setelah serangkaian kata dalam frasa. Mengatakan mereka ada mungkin memberi mereka tingkat kekuatan yang bisa sangat berbahaya.
Lagi pula, pengguna dapat menggunakan sistem AI generatif ini untuk melakukan hal-hal seperti menyebarkan informasi yang salah. Kami telah melihat ini memanipulasi kemiripan orang dan bahkan suara mereka.
Bahkan chatbot sendiri dapat menyebabkan kerugian jika akhirnya memberikan hasil yang bias – sesuatu yang telah kita lihat dengan ChatGPT dan Bard. Mengetahui kecenderungan chatbot ini untuk berhalusinasi dan memalsukan hasil, mereka mungkin dapat menyebarkan informasi yang salah kepada pengguna yang tidak menaruh curiga.
Penelitian juga membuktikan hal ini. Penelitian baru-baru ini Diposting di Laporan ilmiah Dia menemukan bahwa tanggapan manusia terhadap pertanyaan etis dapat dengan mudah dipengaruhi oleh argumen yang dibuat oleh ChatGPT – dan bahkan pengguna sangat meremehkan seberapa besar mereka dipengaruhi oleh bot.
Klaim menyesatkan tentang 60 menit Ini benar-benar hanya gejala dari kebutuhan yang lebih besar akan literasi digital pada saat kita sangat membutuhkannya. Banyak ahli AI mengatakan bahwa sekarang, lebih dari sebelumnya, adalah waktu ketika orang perlu menyadari apa yang bisa dan tidak bisa dilakukan oleh AI. Fakta-fakta dasar tentang robotika ini juga harus dikomunikasikan secara efektif kepada masyarakat luas.
Ini berarti bahwa orang-orang dengan platform terbesar dan suara paling keras (yaitu media, politisi, dan CEO Big Tech) memikul tanggung jawab terbesar dalam memastikan masa depan AI yang lebih aman dan terdidik. Jika tidak, kita bisa berakhir seperti manusia gua yang disebutkan di atas, bermain dengan keajaiban api — dan terbakar dalam prosesnya.
“Communication. Music lover. Certified bacon pioneer. Travel supporter. Charming social media fanatic.”
More Stories
“Akumulasi daging dalam jumlah besar” dan frasa meresahkan lainnya dari inspeksi USDA terhadap pabrik kepala babi
Bocoran rencana pengumuman PS5 Pro dan desain perangkat
Rilis fisik Castlevania Dominus Collection dikonfirmasi, pre-order dibuka bulan depan