Kontrak besar senilai 200 juta dolar, bilang tidak ya sudah, apakah perusahaan AI ini sudah gila?

Kejadiannya seperti ini, militer AS ingin menjadikan Anthropic (yang mengembangkan Claude) sebagai "risiko rantai pasokan", hasilnya hakim langsung turun tangan menghentikannya, tunggu tujuh hari lagi untuk melihat.
Apa yang memicu? Anthropic mati-matian tidak mau mencabut batasan mereka—tidak membiarkan militer AS menggunakan AI untuk pemantauan massal, juga tidak membiarkan AI terlibat dalam pertempuran otonom mematikan.
Secara langsung, perusahaan ini lebih memilih untuk kehilangan kontrak daripada membiarkan teknologi mereka menjadi alat untuk membunuh.

Secara jujur, sekarang perusahaan AI semua berebut untuk bekerja sama dengan militer, tindakan Anthropic kali ini justru membuat orang sedikit terkesan.
Seberapa kuat teknologi, tetap harus ada batasan. Uang yang didapat memang menyenangkan, tetapi bagaimana sejarah dituliskan di masa depan, itu sulit untuk dikatakan.
Bagaimanapun juga, selama tujuh hari ini, kedua belah pihak masih harus berdebat, kita tinggal menonton saja.

#AI #Anthropic #五角大楼 #科技伦理 #Claude