Kekhawatiran akan risiko AI mendorong berbagai negara di dunia mengembangkan regulasi demi memitigasi risiko dan memastikan penggunaan AI yang bertanggung jawab.
M. Irfan Dwi Putra, Universitas Gadjah Mada
Teknologi artificial intelligence mengalami perkembangan yang sangat pesat dalam dua dekade terakhir. Bahkan, dalam beberapa aspek seperti pengenalan gambar dan pemahaman bahasa, AI sudah mampu melampaui kemampuan rata-rata manusia.
Penggunaan AI kini merambah ke berbagai sektor, termasuk kesehatan dan keuangan. Dalam dunia kesehatan, AI membantu proses diagnosis, pengembangan obat, hingga pemantauan pasien. Di sektor keuangan, AI digunakan untuk penilaian kredit (credit scoring) dan interaksi dengan nasabah melalui layanan pelanggan otomatis.
Meski membawa manfaat besar, kehadiran AI juga menimbulkan risiko serius, seperti pelanggaran privasi dan potensi penggantian pekerjaan manusia. Kekhawatiran ini mendorong berbagai negara di dunia mengembangkan regulasi demi memitigasi risiko dan memastikan penggunaan AI yang bertanggung jawab.
Beda pendekatan regulasi: Uni Eropa, AS, dan Cina
Uni Eropa menjadi kawasan yang pertama kali menginisiasi regulasi AI lewat Artificial Intelligence Act (AI Act). Regulasi yang berlaku sejak 1 Agustus 2024 ini terbilang komprehensif karena mengatur seluruh siklus hidup AI mulai dari perencanaan hingga pemanfaatannya di masyarakat.
AI Act menggunakan pendekatan berbasis risiko dengan membagi sistem ke dalam empat kategori utama berdasarkan tingkat risiko yang ditimbulkannya terhadap keselamatan dan hak asasi manusia, yakni:
- Risiko tak dapat diterima: AI yang dianggap mengancam hak-hak manusia, seperti teknologi pengawasan massal dan manipulasi perilaku manusia. AI semacam ini dilarang keras.
- Risiko tinggi: AI yang digunakan dalam infrastruktur vital seperti transportasi, kesehatan, pendidikan, penegakan hukum, dan lain-lain. Sistem ini diperbolehkan, tetapi harus memenuhi persyaratan ketat terkait keamanan, transparansi, dan akuntabilitas.
- Sistem AI dengan risiko terbatas: AI yang memiliki risiko menengah, seperti chatbot atau teknologi berbasis pengenalan wajah, yang memerlukan transparansi sehingga pengguna tahu mereka berinteraksi dengan AI.
- Sistem AI dengan risiko minimal: AI yang dianggap berisiko rendah, seperti aplikasi filter spam atau permainan video, memiliki regulasi yang lebih longgar namun tetap tunduk terhadap pedoman etik.
AI Act secara eksplisit menekankan pelindungan hak-hak fundamental dan penghormatan prinsip-prinsip etika seperti yang tercantum dalam Pasal 1 regulasi tersebut.
Meskipun demikian, beberapa kritikus berpendapat bahwa AI Act belum sepenuhnya menjamin perlindungan HAM karena beberapa alasan. Di antaranya adalah implementasi penilaian dampak hak asasi dinilai minim keterlibatan masyarakat sipil, ada pengecualian ketentuan untuk keamanan nasional dan penegakan hukum yang dikhawatirkan dapat menjadi celah bagi pemerintah untuk menyalahgunakan kekuasaannya, serta tidak melingkupi dampak ekologis AI secara menyeluruh.
Berbeda dengan Uni Eropa, Amerika Serikat (AS) menerapkan pendekatan yang lebih fleksibel. Hingga saat ini, belum ada regulasi di tingkat federal yang secara khusus mengatur AI. Pemerintah federal AS hanya mengeluarkan panduan etika sukarela melalui White House Executive Order on AI dan White House Blueprint for an AI Bill of Rights-yang memberikan arahan kepada pengembang AI untuk mematuhi prinsip-prinsip keamanan dan tanggung jawab sosial.
Pembahasan regulasi AI di AS justru lebih banyak terjadi di level negara bagian, seperti di Colorado dan California. Sebagai contoh, Colorado AI Act menekankan perlindungan konsumen dari AI yang diskriminatif, sementara California AI Bill menyoroti keamanan sistem AI dan pertanggungjawaban hukum.
Namun, regulasi yang diinisiasi negara bagian ini mendapat kritik dari perusahaan teknologi besar karena dianggap menghambat inovasi dan terlalu memberatkan. Hal ini dikhawatirkan bisa membuat perusahaan AI keluar dari negara bagian tersebut. Banyak yang mendorong agar ada regulasi federal yang lebih terpadu.
Sementara itu, sebagai salah satu negara terdepan dalam inovasi AI, Cina menerapkan pendekatan yang sentralistis dalam meregulasi AI. Dengan kontrol besar terhadap inovasi AI, Cina berfokus pada keamanan nasional dan kepentingan politik. Program AI bernama Xue Xi, yang dikembangkan untuk menyebarkan pemikiran dan ideologi Xi Jinping, menjadi contoh nyata dari pendekatan ini.
Cina berambisi menjadi pemimpin dalam industri AI global pada 2030, sebagaimana tertuang dalam New Generation AI Development Plan 2017, dengan strategi yang mendorong pertumbuhan industri AI melalui investasi besar-besaran.
Regulasi yang dikembangkan oleh tiga kekuatan ekonomi terbesar dunia ini tidak hanya semata-mata ditujukan untuk mengatur teknologi AI. Lebih jauh, hal ini mencerminkan strategi untuk mendominasi kekuatan ekonomi dan politik global di tengah kemajuan AI. Uni Eropa berusaha menciptakan standar AI yang sejalan dengan HAM, sementara Cina ingin mendominasi pasar AI global. AS, dengan regulasi yang longgar, berupaya mempertahankan dominasi perusahaan teknologi.
Seperti perang dagang, perbedaan regulasi ini berpotensi menciptakan "blok-blok AI" yang dapat menghambat daya saing global dan memperlebar kesenjangan inovasi antarnegara.
Tantangan dan peluang harmonisasi regulasi AI global
Harmonisasi regulasi sangat diperlukan untuk menghindari fragmentasi pasar teknologi global. Berkaca pada tren General Data Protection Regulation (GDPR) sebelumnya, Uni Eropa melalui AI Act sebenarnya berpeluang besar menjadi pemain kunci dalam harmonisasi regulasi AI dunia. AI Act berpotensi menetapkan standar global untuk teknologi AI-seperti yang disebut oleh Anu Bradford, Profesor dari Columbia Law School, sebagai Brussels Effect.
Namun, tantangan muncul dari tingginya biaya kepatuhan dan sulitnya memenuhi standar yang ditetapkan, terutama di negara-negara yang masih berada pada tahap awal pengembangan AI.
Beberapa ketentuan yang dianggap memberatkan di antaranya kewajiban untuk melakukan asesmen risiko dan kesesuaian, dokumentasi teknis, hingga kewajiban transparansi. Selain itu, ada sanksi besar yang mencapai 7,5-35 juta euro. Banyaknya ketentuan yang perlu dipenuhi dan besarnya denda dinilai berpotensi menghambat pengembang AI dalam menciptakan inovasi-inovasi baru, meskipun AI Act juga memberikan masa tenggang untuk memenuhi ketentuan-ketentuannya.
Di negara-negara yang baru mulai mengembangkan AI-termasuk Indonesia- skenario yang paling mungkin terjadi adalah pengadopsian prinsip-prinsip utama dari AI Act-seperti transparansi, perlindungan privasi, dan keamanan-dengan standar yang lebih fleksibel agar tidak memberatkan industri AI nasional.
Bagaimana pun, ke depan, regulasi AI yang komprehensif akan sangat dibutuhkan untuk memastikan bahwa kemajuan AI membawa dampak positif bagi umat manusia. Kolaborasi global akan menjadi kunci dalam menciptakan regulasi yang harmonis dan seimbang antara pelindungan HAM dan kemajuan inovasi.
Pada akhirnya, regulasi AI mencerminkan lebih dari sekadar kontrol atas teknologi; ini adalah arena pertarungan geopolitik baru yang akan menentukan kekuatan di abad ke-21. Dalam lanskap teknologi global yang terpecah, siapa yang berhasil mengatur AI dengan bijaksana, akan menjadi kekuatan dominan di masa depan.
Untuk itu, kita harus bergerak cepat. Di era perkembangan pesat teknologi ini, regulasi AI tidak bisa lagi menjadi prioritas sekunder. Tanpa regulasi dan kolaborasi global yang kuat, mudarat penyalahgunaan AI bisa jauh lebih besar daripada manfaatnya. Dunia, termasuk Indonesia, perlu segera mengambil tindakan untuk mengarahkan AI ke jalur yang aman dan adil, sehingga tidak ada negara yang tertinggal dalam perlombaan masa depan.
M. Irfan Dwi Putra, Junior Researcher at Center for Digital Society (CfDS), Universitas Gadjah Mada
Artikel ini terbit pertama kali di The Conversation. Baca artikel sumber.