Kaliforniyada joylashgan sunʼiy intellekt laboratoriyasi Anthropic, AQSh Mudofaa vazirligi (Pentagon) tomonidan qoʻyilgan cheklanmagan harbiy maqsadlarda AI tizimidan foydalanish talablarini rad etgani uchun “taʼminot zanjiri xavfi” deb belgilangan. Kompaniya bu qarorni qonuniy emas deb hisoblab, sudga murojaat qildi.
Pentagon, Anthropic kompaniyasining Claude nomli AI tizimi uchun qoʻygan avtonom qurollar yoki ichki kuzatuv kabi funksiyalardagi cheklovlarni olib tashlashni talab qilgan. Kompaniya rahbari Dario Amodei esa, testdan oʻtmagan AI ni avtonom urushda qoʻllash xavflari haqida ogohlantirib, cheklovlarni olib tashlashdan bosh tortgan.
Anthropic sud arizasida, Trump maʼmuriyatining harakatlari “misli koʻrilmagan va qonunga zid” ekanligini, kompaniyaning “insoniyat uchun ijobiy natijalarni maksimal darajada oshirish” tamoyilini ifodalagani uchun jazolanayotganini taʼkidladi. Kompaniya, eng ilgʻor AI modellari ham avtonom qurollar tizimlari uchun ishonchli emasligini va kuzatuv tizimlarida foydalanish asosiy huquqlarni buzishini bildirdi.
Pentagon, “har qanday qonuniy” foydalanish uchun AI quvvatli funksionallikdan toʻliq foydalanish zarurligini taʼkidlab, Anthropicning rad etishi xususiy kompaniyaning mudofaa masalalariga siyosiy cheklovlar qoʻyishi sifatida baholadi. Biroq, bu qadam ekstremal deb qaralmoqda, chunki Anthropic AQShda birinchi marta “taʼminot zanjiri xavfi” deb belgilangan texnologiya kompaniyasidir.
AQSh qonuniga koʻra, “taʼminot zanjiri xavfi” “sabotaj” yoki “yomon niyatli funksiyalarni kiritish” mumkin boʻlgan tizimlarga nisbatan qoʻllaniladi. Bu belgilash, Anthropicning federal agentliklar bilan biznes qilishini taqiqlaydi va pudratchilar bilan munosabatlarga taʼsir koʻrsatishi mumkin. Kompaniya, bu belgilashning “tor doiradagi” ekanligini va Mudofaa vazirligiga bogʻliq boʻlmagan loyihalarda foydalanish mumkinligini aytdi.
Source: www.dw.com