OpenAI sekali lagi berdepan dengan tuntutan privasi di Eropah selepas ChatGPT didapati mencipta maklumat palsu yang mencemarkan nama baik seseorang individu. Kali ini, seorang lelaki dari Norway, Arve Hjalmar Holmen, mendapati bahawa chatbot AI tersebut menuduhnya telah membunuh dua anaknya dan cuba membunuh anak ketiga. Kes ini menjadi semakin hangat apabila kumpulan advokasi privasi, Noyb, tampil memberikan sokongan dalam tindakan undang-undang terhadap OpenAI.

AI ‘Hallucination’ yang Merosakkan Reputasi
Insiden ini menonjolkan masalah besar dalam model kecerdasan buatan (AI) seperti ChatGPT, yang kadangkala menghasilkan maklumat palsu atau “hallucinations.” Dalam kes Holmen, chatbot tersebut tidak hanya menyebarkan maklumat salah tetapi juga mewujudkan tuduhan jenayah yang sangat berat. Apa yang lebih mengejutkan, OpenAI mengakui bahawa mereka tidak dapat membetulkan kesilapan tersebut secara terus dan hanya boleh menyekat carian berkaitan.
Di bawah Peraturan Perlindungan Data Umum (GDPR) Kesatuan Eropah, setiap individu mempunyai hak terhadap data peribadi mereka, termasuk hak untuk memastikan maklumat yang disimpan atau disebarkan adalah tepat. Namun, ketidakmampuan OpenAI untuk membetulkan maklumat palsu yang dihasilkan oleh AI menimbulkan persoalan mengenai pematuhan syarikat tersebut terhadap peraturan GDPR.
Kesalahan Maklumat: Bukan Isu Terpencil
Holmen bukan satu-satunya mangsa. Sebelum ini, terdapat beberapa kes di mana ChatGPT mencipta tuduhan palsu terhadap individu tertentu, termasuk mengaitkan mereka dengan skandal rasuah dan kes penderaan kanak-kanak. Kes-kes ini menunjukkan bahawa masalah AI ‘hallucination’ bukan sekadar isu teknikal tetapi boleh membawa implikasi undang-undang yang serius.
Sebagai contoh:
Di Australia, seorang individu memfailkan saman terhadap OpenAI selepas ChatGPT menuduhnya terlibat dalam rasuah.
Di Amerika Syarikat, seorang peguam menyaman OpenAI kerana chatbot tersebut mencipta dokumen palsu yang mengaitkannya dengan skandal jenayah.
Dengan semakin banyak laporan mengenai maklumat palsu yang dihasilkan oleh AI, tekanan terhadap OpenAI untuk bertanggungjawab semakin meningkat.
Regulasi AI Semakin Ketat di Eropah
Pihak berkuasa di Eropah kini mengambil tindakan tegas terhadap syarikat teknologi yang gagal melindungi hak privasi individu. Sebagai contoh, pada awal tahun ini, Itali telah mendenda OpenAI sebanyak €15 juta kerana mengumpul data pengguna tanpa asas undang-undang yang jelas serta gagal menghalang akses kanak-kanak kepada kandungan yang tidak sesuai.
Kes Holmen boleh menjadi pemangkin kepada lebih banyak tindakan undang-undang terhadap syarikat AI, terutamanya yang mengendalikan data peribadi dalam jumlah besar. Dengan tuntutan dari Noyb yang menekankan ketidakpatuhan OpenAI terhadap GDPR, tidak mustahil syarikat ini bakal berdepan denda yang lebih besar atau sekatan terhadap operasinya di Eropah.
Kesimpulan
Tindakan OpenAI dalam menangani isu ini akan menjadi ujian besar terhadap ketelusan dan akauntabiliti syarikat teknologi dalam era AI. Jika syarikat ini gagal membetulkan maklumat palsu yang dihasilkan oleh ChatGPT, lebih ramai pengguna mungkin menjadi mangsa fitnah dan reputasi mereka boleh terjejas tanpa sebarang jalan penyelesaian.
Kes ini juga membuktikan bahawa pengawalseliaan AI adalah sesuatu yang perlu dipercepatkan bagi mengelakkan lebih banyak kes ketidakadilan akibat kecerdasan buatan yang tidak terkawal. Sementara itu, individu perlu lebih berhati-hati dalam mempercayai maklumat yang dihasilkan oleh chatbot AI dan mempertimbangkan kesahihan fakta sebelum mempercayainya bulat-bulat.