Արհեստական բանականության Anthropic ընկերությունը հայտարարել է, որ չի կատարի ԱՄՆ պաշտպանության նախարարության՝ իր արհեստական բանականության համակարգերում պաշտպանության միջոցները մեղմացնելու խնդրանքը՝ նշելով զանգվածային հսկողության և ինքնավար զենքի վերաբերյալ մտահոգությունները։
Հինգշաբթի օրը հրապարակված հայտարարության մեջ գործադիր տնօրեն Դարիո Ամոդեյը նշել է, որ ընկերությունը դեմ է իր արհեստական բանականության Claude մոդելի օգտագործմանը «զանգվածային ներքին հսկողության» կամ «լիովին ինքնավար զենքի» համար։
Ամոդեին նշել է, որ առաջադեմ արհեստական բանականության համակարգերը բավականաչափ հուսալի չեն նման զենքեր առանց մարդկային հսկողության գործարկելու համար և պահանջում են անվտանգության միջոցառումներ, որոնք ներկայումս հասանելի չեն։
Նա նաև զգուշացրել է, որ չնայած արհեստական բանականությունը կարող է աջակցել անվտանգությանը, լայնածավալ, արհեստական բանականությամբ հզորացված հսկողությունը կարող է ռիսկեր առաջացնել քաղաքացիական ազատությունների համար։
Anthropic-ը և Պենտագոնը շաբաթներ շարունակ բանակցություններ են վարում։
Թրամփի վարչակազմը սպառնացել է կիրառել «Պաշտպանության արտադրության մասին» օրենքը, որը լիազորում է կառավարությանը ստիպել ընկերություններին առաջնահերթություն տալ պաշտպանության կարիքներին, և քննարկում է Anthropic-ը որպես «մատակարարման շղթայի ռիսկ» պիտակավորելու հնարավորությունը։ Նման դասակարգումը կխանգարի Պաշտպանության նախարարության կապալառուներին օգտագործել ընկերության ծրագրային ապահովումը։
Axios-ը հաղորդել է, որ Պենտագոնը սկսել է քայլեր ձեռնարկել այս դասակարգման ուղղությամբ՝ խնդրելով Boeing-ին և Lockheed Martin-ին մանրամասնել իրենց կախվածությունը Claude-ից։
Պենտագոնի խոսնակ Շոն Փարնելը, սակայն, հերքել է, որ նախարարությունը մտադիր է արհեստական բանականություն օգտագործել լիովին ինքնավար զենքերի համար՝ առանց անօրինական վերահսկողության կամ մարդկային միջամտության։
X-ում գրառման մեջ Փարնելը նշել է, որ Պենտագոնը մտադիր է օգտագործել Anthropic-ի մոդելը «բոլոր օրինական նպատակներով» և թույլ չի տա մասնավոր ընկերությանը որոշել գործառնական որոշումները։













