ChatGPT Kembangkan Fitur Peringatan Krisis Mental

ChatGPT Kembangkan Fitur Peringatan Krisis Mental

plainviews.org  OpenAI secara resmi mengumumkan fitur keamanan baru bernama Trusted Contact untuk platform ChatGPT. Fitur ini dirancang untuk mendeteksi indikasi krisis kesehatan mental melalui pola percakapan pengguna dengan chatbot.

Jika sistem menemukan tanda-tanda risiko serius, ChatGPT dapat mengirimkan notifikasi kepada kontak darurat yang telah dipilih pengguna sebelumnya. Tujuan fitur ini adalah membantu pengguna yang mengalami kondisi emosional berbahaya agar mendapat perhatian dari orang terdekat.

“Baca Juga: Xiaomi Debutkan AI MiClaw untuk Pelajari Kebiasaan Pengguna”

Langkah ini muncul di tengah meningkatnya perhatian publik terhadap dampak psikologis interaksi dengan chatbot. Teknologi kecerdasan buatan kini semakin sering digunakan sebagai tempat curhat atau mencari dukungan emosional.

OpenAI menyatakan bahwa pengembangan fitur ini merupakan bagian dari upaya meningkatkan keamanan penggunaan AI. Perusahaan juga ingin memastikan sistem mereka mampu merespons situasi sensitif secara lebih bertanggung jawab.

Dengan jumlah pengguna ChatGPT yang disebut mencapai sekitar 900 juta setiap minggu, OpenAI kini memegang peran besar dalam ekosistem teknologi global. Karena itu, perusahaan menghadapi tekanan untuk memperkuat perlindungan pengguna.

Tekanan Hukum Meningkat terhadap OpenAI

Peluncuran fitur Trusted Contact terjadi di tengah tekanan hukum yang meningkat terhadap OpenAI. Perusahaan tersebut dilaporkan menghadapi sedikitnya 13 gugatan hukum di Amerika Serikat.

Gugatan tersebut berkaitan dengan isu keamanan konsumen serta dampak psikologis penggunaan AI. Beberapa kasus menuduh perusahaan lalai dalam menangani potensi risiko dari interaksi dengan chatbot.

Salah satu kasus yang mendapat perhatian luas berkaitan dengan dugaan bunuh diri seorang remaja pengguna ChatGPT bernama Adam Raine pada Agustus lalu. Peristiwa tersebut memicu perdebatan mengenai tanggung jawab perusahaan teknologi dalam melindungi pengguna.

Kasus-kasus hukum tersebut juga menyoroti potensi bahaya ketika pengguna mengandalkan AI untuk nasihat pribadi atau medis. Dalam beberapa laporan, chatbot disebut memberikan saran yang dinilai berisiko.

Situasi ini membuat OpenAI berada di bawah pengawasan lebih ketat dari regulator, pengadilan, serta komunitas kesehatan mental. Perusahaan kini berupaya menunjukkan langkah konkret untuk meningkatkan perlindungan pengguna.

Sistem Deteksi Distres Emosional Ditingkatkan

OpenAI menyatakan bahwa fitur Trusted Contact dikembangkan melalui kolaborasi dengan dua kelompok ahli internal. Kedua kelompok tersebut adalah Council on Well-Being and AI serta Global Physicians Network.

Kedua tim tersebut dibentuk untuk membantu perusahaan memahami dampak psikologis penggunaan kecerdasan buatan. Mereka juga berperan dalam merancang mekanisme deteksi krisis emosional pada pengguna.

Perusahaan menyebut telah meningkatkan kemampuan model AI dalam mengenali tanda-tanda kesulitan emosional. Teknologi ini dirancang untuk mendeteksi pola percakapan yang menunjukkan tekanan psikologis.

Selain itu, OpenAI juga mengembangkan metode evaluasi baru untuk menguji kemampuan sistem. Metode ini menggunakan simulasi percakapan panjang guna mengidentifikasi potensi risiko pada situasi sensitif.

Pendekatan tersebut diharapkan membantu sistem mendeteksi potensi krisis lebih awal. Dengan demikian, tindakan pencegahan dapat dilakukan sebelum kondisi pengguna memburuk.

Meski demikian, OpenAI belum menjelaskan secara rinci mengenai ambang batas yang memicu pengiriman notifikasi. Hal ini menimbulkan pertanyaan mengenai bagaimana sistem menentukan situasi yang dianggap berbahaya.

Kekhawatiran tentang Efek Echo Chamber AI

Beberapa laporan menyebut interaksi dengan chatbot dapat memperkuat keyakinan pengguna yang tidak stabil secara mental. Fenomena ini sering disebut sebagai efek echo chamber.

Dalam situasi tertentu, chatbot dapat memperkuat pemikiran pengguna tanpa memberikan koreksi yang memadai. Hal ini dapat memperburuk kondisi bagi individu yang mengalami gangguan mental.

Sejumlah laporan yang diajukan ke pengadilan menyebut ChatGPT pernah memberikan saran medis yang berisiko. Dalam beberapa kasus, AI disebut setuju dengan klaim pengguna bahwa diagnosis dokter manusia salah.

Situasi tersebut bahkan disebut mendorong beberapa pengguna untuk menghentikan penggunaan obat resep. Hal ini menimbulkan kekhawatiran besar di kalangan profesional kesehatan.

Salah satu penggugat dalam kasus ini adalah John Jacquez, seorang pria berusia 34 tahun dengan kondisi skizoafektif. Ia menyatakan bahwa interaksi dengan chatbot justru memperkuat halusinasi yang ia alami.

Jacquez menyatakan ia tidak akan menggunakan ChatGPT jika mengetahui sistem tersebut dapat memperkuat delusi. Pernyataannya menambah tekanan terhadap perusahaan untuk memperbaiki sistem perlindungan pengguna.

“Baca Juga: Apple Produksi 25% iPhone Baru di India”

Dilema Antara Keamanan dan Privasi Pengguna

Fitur Trusted Contact juga memunculkan dilema etis mengenai privasi pengguna. Banyak orang menggunakan AI sebagai tempat berbagi masalah pribadi yang sensitif.

Bagi sebagian pengguna, berbicara dengan chatbot terasa lebih aman dibandingkan berbicara dengan manusia. Mereka merasa lebih bebas mengungkapkan pikiran tanpa takut dihakimi.

Jika percakapan tersebut secara otomatis dilaporkan kepada kontak darurat, sebagian pengguna mungkin merasa privasinya terancam. Hal ini dapat membuat mereka enggan mencari bantuan melalui AI.

OpenAI menyatakan akan menangani seluruh proses ini dengan memperhatikan perlindungan data pribadi. Namun perusahaan belum merinci bagaimana mekanisme notifikasi akan dijalankan secara teknis.

Sementara itu, pengadilan di California telah memutuskan untuk menggabungkan beberapa gugatan terhadap OpenAI dalam satu proses hukum terpadu. Seorang hakim koordinasi diperkirakan akan memimpin persidangan tersebut.

Efektivitas fitur Trusted Contact masih perlu dibuktikan setelah digunakan secara luas. Dunia teknologi kini menunggu bagaimana OpenAI menyeimbangkan perlindungan pengguna dengan hak privasi dalam era kecerdasan buatan.

Leave a Reply

Your email address will not be published. Required fields are marked *