Telset.id – Bayangkan jika sebuah perusahaan teknologi menolak permintaan pemerintah untuk menggunakan AI-nya dalam operasi pengawasan massal. Itulah yang sedang terjadi dengan Anthropic, perusahaan di balik chatbot Claude, yang kini menjadi sorotan karena kebijakan etisnya yang keras. Dalam dunia di mana AI semakin sering digunakan untuk memantau warga, langkah Anthropic bukan hanya berani, tapi juga memicu pertanyaan besar: sejauh mana perusahaan teknologi harus tunduk pada permintaan pemerintah?
Menurut laporan eksklusif dari Semafor, Anthropic secara tegas menolak penggunaan model AI-nya untuk tujuan pengawasan, penegakan hukum yang bermasalah, atau aplikasi peradilan pidana. Kebijakan penggunaan mereka secara spesifik melarang penggunaan teknologi mereka untuk “membuat keputusan dalam aplikasi peradilan pidana,” “melacak lokasi fisik, keadaan emosional, atau komunikasi seseorang tanpa persetujuan mereka,” dan “menganalisis atau mengidentifikasi konten tertentu untuk disensor atas nama organisasi pemerintah.”
Kebijakan ini ternyata menjadi batu sandungan besar bagi beberapa lembaga federal AS, termasuk FBI, Secret Service, dan Immigration and Customs Enforcement (ICE). Yang menarik, ketegangan ini terjadi justru ketika Anthropic memberikan akses chatbot Claude dan suite alat AI-nya kepada pemerintah federal dengan harga sangat murah: hanya $1. Sebuah tawaran yang seharusnya menjadi kemudahan, tapi justru berubah menjadi sumber konflik karena batasan etis yang diterapkan Anthropic.
Mengapa Kebijakan Anthropic Berbeda dari Kompetitor?
Yang membedakan Anthropic dari perusahaan AI lain seperti OpenAI adalah ketegasan dan keluasan kebijakan penggunaannya. Sementara OpenAI membatasi “pemantauan individu tanpa otorisasi” – yang mungkin masih memungkinkan pemantauan “legal” – Anthropic sama sekali tidak memberikan celah untuk penggunaan pengawasan domestik. Seorang sumber yang familiar dengan masalah ini menjelaskan bahwa meskipun Claude digunakan oleh agensi untuk tujuan keamanan nasional termasuk cybersecurity, kebijakan perusahaan secara tegas membatasi penggunaan terkait pengawasan domestik.
Perwakilan Anthropic menyatakan bahwa mereka mengembangkan ClaudeGov khusus untuk komunitas intelijen, dan layanan ini telah menerima otorisasi “Tinggi” dari Federal Risk and Authorization Management Program (FedRAMP), yang memungkinkan penggunaannya dengan beban kerja pemerintah yang sensitif. Claude tersedia untuk digunakan di seluruh komunitas intelijen, tetapi dengan batasan etika yang jelas.
Posisi Etis atau Perlindungan Diri?
Seorang pejabat administrasi mengeluh kepada Semafor bahwa kebijakan Anthropic membuat penilaian moral tentang bagaimana lembaga penegak hukum melakukan pekerjaan mereka. Tapi mari kita jujur: ini bukan hanya masalah moral, tapi juga legal. Kita hidup dalam negara pengawasan di mana penegak hukum dapat dan telah memantau orang tanpa surat perintah di masa lalu dan hampir pasti akan terus melakukannya di masa depan.
Perusahaan yang memilih untuk tidak berpartisipasi dalam hal itu, sejauh yang dapat dilawannya, sedang melindungi kepentingannya sendiri sama seperti sedang mengambil sikap etis. Jika pemerintah federal kesal karena kebijakan penggunaan perusahaan mencegahnya melakukan pengawasan domestik, mungkin pelajaran utamanya adalah bahwa pemerintah melakukan pengawasan domestik yang luas dan berusaha mengotomatiskannya dengan sistem AI.
Posisi Anthropic yang secara teoritis berprinsip ini merupakan yang terbaru dalam upayanya memposisikan diri sebagai perusahaan AI yang masuk akal. Lebih awal bulan ini, mereka mendukung undang-undang keselamatan AI di California yang akan mewajibkannya dan perusahaan AI besar lainnya tunduk pada persyaratan keselamatan baru dan lebih ketat untuk memastikan model tidak berisiko melakukan kerusakan katastrofik. Anthropic adalah satu-satunya pemain besar di ruang AI yang mendukung undang-undang tersebut.
Perusahaan ini juga berada di Washington D.C., mempromosikan adopsi AI cepat dengan pengaman (tetapi penekanan pada bagian cepatnya). Posisinya sebagai perusahaan AI yang santai mungkin sedikit tercemar oleh fakta bahwa mereka membajak jutaan buku dan makalah yang digunakan untuk melatih model bahasa besarnya, melanggar hak pemegang hak cipta dan meninggalkan penulis tanpa pembayaran. Penyelesaian $1,5 miliar yang dicapai lebih awal bulan ini akan memasukkan setidaknya sebagian uang ke dalam kantong orang-orang yang benar-benar menciptakan karya yang digunakan untuk melatih model tersebut.
Sementara itu, Anthropic baru saja dinilai hampir $200 miliar dalam putaran pendanaan terbaru yang akan membuat penalti yang diperintahkan pengadilan menjadi kesalahan pembulatan. Sebuah ironi yang patut dicermati: perusahaan yang bersikap etis dalam hal pengawasan pemerintah, tetapi bermasalah dalam hal hak cipta.
Lalu bagaimana dengan kompetitor seperti perusahaan AI milik Elon Musk, X.AI Corp? Atau keputusan strategis OpenAI yang membatalkan rencana menjadi perusahaan profit? Dunia AI memang penuh dengan dinamika yang kompleks.
Pertanyaannya sekarang: apakah posisi etis Anthropic ini akan bertahan? Ataukah tekanan pemerintah dan kebutuhan bisnis akan memaksa mereka untuk melunak? Yang pasti, kasus ini menunjukkan bahwa perkembangan AI tidak hanya tentang teknologi, tetapi juga tentang nilai-nilai yang kita tanamkan di dalamnya. Seperti yang ditunjukkan oleh kegagalan AI dalam menjalankan perusahaan virtual, teknologi ini masih memiliki banyak keterbatasan – termasuk dalam memahami kompleksitas etika dan moral manusia.
Anthropic mungkin sedang mencoba menjadi “orang baik” dalam ruang AI, tetapi seperti semua perusahaan teknologi, mereka harus menyeimbangkan antara idealisme etis dan realitas bisnis. Keputusan mereka untuk menolak pengawasan massal patut diapresiasi, tetapi konsistensi mereka dalam masalah hak cipta dan praktik bisnis lainnya masih perlu diawasi. Di era di mana AI semakin渗透 ke dalam setiap aspek kehidupan kita, perdebatan tentang etika AI seperti ini bukan hanya penting – tapi sangat mendesak.