Kecerdasan buatan terus berkembang dengan kecepatan yang mencengangkan. Bagaimana dunia akan berubah ketika memasuki zaman di mana kecerdasan manusia telah terlampaui dalam segala bidang? Baru-baru ini Nikkei Asia mewawancarai Guru Besar Emeritus Geoffrey Hinton dari Universitas Toronto, Geoffrey Hinton, yang dikenal sebagai "Godfather of AI Research," di rumahnya di Kanada untuk membahas masa depan AI dan kemanusiaan.

Berikut kutipan dari wawancara dengan Hinton.

Mengapa Anda meninggalkan Google, padahal Anda bertanggung jawab atas pengembangan AI?

Saya berbicara dengan atasan saya di Google tentang pensiun karena saya berusia 75 tahun, dan tentang kekhawatiran terhadap ancaman nyata dari AI. Saya juga ingin bebas membicarakannya secara terbuka.

Dia berkata, "Mengapa Anda tidak tetap di Google dan mengatasi ancaman yang ada?" Tapi saya ingin pensiun. Jika Anda bekerja di sebuah perusahaan, meskipun perusahaan tersebut tidak secara eksplisit memberi tahu Anda apa yang harus Anda katakan, Anda tidak bebas mengatakan apa yang Anda yakini. Anda harus memikirkan kepentingan perusahaan.

Menurut Anda mengapa AI bisa menjadi ancaman bagi umat manusia?

Anda dapat menentukan tujuan yang menurut Anda baik, namun AI mungkin menemukan cara untuk melakukannya yang tidak baik bagi Anda. Contoh sederhananya adalah misalkan Anda memiliki AI yang sangat cerdas, dan Anda mengatakan kepadanya bahwa tujuan Anda adalah menghentikan perubahan iklim. Dugaan saya, hal pertama yang disadarinya adalah, Anda harus menyingkirkan orang. adi, Anda harus berhati-hati dalam menentukan tujuan.

Misalkan ada persaingan antara AI yang berbeda. AI menjadi lebih pintar dengan melihat banyak data, dan untuk melakukan hal tersebut dibutuhkan banyak pusat data, banyak sumber daya. Jadi dalam kompetisi, kedua AI bersaing satu sama lain untuk mendapatkan sumber daya, dan AI yang mendapat lebih banyak sumber daya akan bekerja lebih baik. Ini akan menjadi semacam proses evolusi di mana mereka bersaing dan kita manusia akan tertinggal jauh.

Banyak orang berkata, "Mengapa Anda tidak mematikan saklar besar saja?" Nah, jika AI lebih pintar dari kita, dan selama mereka masih dapat berbicara dengan kita, mereka akan dapat meyakinkan siapa pun yang bertanggung jawab atas saklar bahwa mematikan saklar adalah ide yang sangat buruk.

Siswa Anda dan salah satu pendiri OpenAI, Ilya Sutskever, mencoba dan gagal memecat CEO OpenAI, Sam Altman pada November 2023, kabarnya karena ancaman AI terhadap kemanusiaan.

Dia sangat memperhatikan keselamatan. OpenAI adalah situasi di mana segala sesuatunya bertumpu pada keselamatan. Misi perusahaan yang mengendalikan bagian nirlaba adalah keselamatan. Bahkan di sana, keuntungan lebih penting daripada keamanan.

Pada tahun 2012, tampaknya kecerdasan digital masih belum sebaik manusia. Mereka mungkin bisa melakukan hal yang sama seperti manusia dalam mengenali objek dan gambar, namun pada saat itu kami tidak berpikir mereka akan mampu menangani bahasa dan memahami hal-hal rumit. Ilya berubah pikiran sebelum saya. Ternyata dia benar.

PBB memutuskan untuk mengambil tindakan segera terkait regulasi pengalihan AI tingkat lanjut secara militer, kenapa?

Akan ada senjata-senjata yang sangat jahat, otonom, dan mematikan. Saya cukup yakin hal itu akan terjadi dalam 10 tahun mendatang. Kemudian mereka dapat mengaturnya, seperti halnya senjata kimia. Mereka telah digunakan, tetapi tidak seluas pada Perang Dunia Pertama. Jadi perjanjian internasional mengenai senjata kimia berhasil. Semoga kita bisa mendapatkan hal serupa untuk menggunakan robot pertempuran AI. Tapi menurutku itu tidak akan terjadi sampai mereka sudah digunakan.

Ada kesamaan yang bisa disepakati oleh semua negara, yaitu kita tidak ingin AI mengambil alih. Semua negara harus dapat berbagi penelitian dan menyepakati kebijakan yang dirancang untuk mencegah pengambilan alih oleh AI. Pada puncak Perang Dingin, Russia dan Amerika Serikat mempunyai beberapa kesamaan untuk mencegah perang nuklir, karena perang nuklir jelas berdampak buruk bagi keduanya. Mereka ingin mencegahnya dan mereka berhasil mencegahnya.

Apakah AI interaktif, seperti ChatGPT yang dikembangkan oleh OpenAI, memahami bahasa manusia?

Ya, menurut saya sangat paham. Saya membuat model bahasa pertama dengan jaringan saraf pada tahun 1985. Model ini dirancang sebagai model bagaimana otak memahami. Kebanyakan orang yang mengatakan tidak mengerti tidak mempunyai teori bagaimana kita memahaminya.

Dulu Anda berargumentasi bahwa AI dapat bertindak seolah-olah ia memahami bahasa, namun sebenarnya ia tidak memahaminya?

Saya selalu menggunakan apakah AI dapat memahami lelucon sebagai kriteria apakah AI benar-benar memahami sesuatu. Google membuat chatbot PaLM pada tahun 2022 yang dapat memahami mengapa sebuah lelucon itu lucu. Saya memintanya untuk menjelaskan beberapa lelucon yang berbeda, dan semuanya dijelaskan.

Apakah menurut Anda pemahaman kita tentang kemanusiaan juga berubah melalui penelitian tentang AI?

Saya rasa kita telah menemukan banyak hal tentang cara kerja otak dengan membangun jaringan saraf ini. Beberapa filsuf dan ahli bahasa berpendapat, misalnya, bahasa tidak dapat dipelajari, bahasa harus berkembang, bahasa harus bersifat bawaan. Ternyata itu benar-benar tidak masuk akal.

Selama 50 tahun, saya telah mengembangkan jaringan saraf, mencoba menjadikannya lebih mirip otak. Saya selalu berasumsi jika Anda membuatnya lebih mirip otak, mereka akan lebih baik, karena otak bekerja jauh lebih baik daripada jaringan saraf. Namun di awal tahun 2023, saya tiba-tiba berubah pikiran.

Manusia dapat mencoba berbagi pengetahuan tetapi kita sangat lambat dalam hal itu. Dalam komputasi digital, Anda mereduksi segalanya menjadi satu dan nol, sehingga pengetahuannya abadi. Itu tidak bergantung pada satu perangkat keras tertentu.

Model bahasa besar memiliki semua pengetahuan tersebut, ribuan kali lebih banyak pengetahuan daripada yang kita miliki, dan koneksinya 100 kali lebih sedikit, yang menunjukkan bahwa AI memiliki algoritma pembelajaran yang lebih efisien.

Menurut Anda, apakah AI akan menjadi sadar diri, atau memiliki kesadaran?

Menurut saya chatbot multimodal sudah mempunyai pengalaman subjektif.

Saya pikir model pikiran kebanyakan orang salah. Izinkan saya memberi Anda sebuah contoh: Misalkan saya banyak minum, dan saya bangun di pagi hari dan melihat gajah kecil berwarna merah muda. Saya pikir itu berarti sistem persepsi saya tidak berfungsi dengan baik.

Sekarang misalkan saya memiliki chatbot multimodal dan memiliki kamera serta lengan, sehingga dapat menunjuk, memahami bahasa, dan telah dilatih. Saya meletakkan sebuah prisma di depan kamera, yang membelokkan sinar cahaya, dan saya meletakkan sebuah objek di depannya. Ia tidak tahu tentang prisma. Sekarang saya katakan, "Tunjuk ke objeknya." Dan saya berkata, "Tidak, bukan di sana objeknya berada. Objeknya tepat di depan Anda. Saya meletakkan prisma di depan kamera Anda."

Chatbot akan berkata, "Oh, saya melihat benda itu sebenarnya tepat di depan saya. Tapi saya punya pengalaman subjektif bahwa benda itu ada di sana." Sekarang, menurut saya jika chatbot mengatakan bahwa ia akan menggunakan kata "pengalaman subjektif" dengan cara yang persis sama seperti yang dilakukan manusia.

Profesor Yann LeCun dari New York University, yang ikut memenangkan Turing Prize, menyangkal kemungkinan adanya kesadaran atau perasaan dalam AI.

Kami masih berteman, tapi kami sama sekali tidak setuju. Kebanyakan orang mengira mereka tidak memiliki pengalaman subjektif. Kita mempunyai sesuatu yang istimewa, yaitu kesadaran atau pengalaman subyektif atau kesanggupan, dan AI tidak memilikinya. Saya pikir itu salah.

Baca Juga: