Արհեստական ​​բանականության Anthropic ընկերությունը մերժում է Պենտագոնի անվտանգության միջոցառումները

Ընկերությունը հրաժարվում է վերացնել իր արհեստական ​​բանականության մոդելի անվտանգության արգելքները՝ հսկողության և ինքնավար զենքի վերաբերյալ մտահոգությունների պատճառով։

By
Anthropic-ի գործադիր տնօրենն ասել է, որ արհեստական բանականությունը (ԱԲ) կարող է աջակցել ազգային անվտանգությանը, սակայն զգուշացրել է, որ լայնածավալ, ԱԲ-ի վրա հիմնված հսկողությունը կարող է վտանգել քաղաքացիական ազատությունները։ / Reuters

Արհեստական ​​բանականության Anthropic ընկերությունը հայտարարել է, որ չի կատարի ԱՄՆ պաշտպանության նախարարության՝ իր արհեստական ​​բանականության համակարգերում պաշտպանության միջոցները մեղմացնելու խնդրանքը՝ նշելով զանգվածային հսկողության և ինքնավար զենքի վերաբերյալ մտահոգությունները։

Հինգշաբթի օրը հրապարակված հայտարարության մեջ գործադիր տնօրեն Դարիո Ամոդեյը նշել է, որ ընկերությունը դեմ է իր արհեստական ​​բանականության Claude մոդելի օգտագործմանը «զանգվածային ներքին հսկողության» կամ «լիովին ինքնավար զենքի» համար։

Ամոդեին նշել է, որ առաջադեմ արհեստական ​​բանականության համակարգերը բավականաչափ հուսալի չեն նման զենքեր առանց մարդկային հսկողության գործարկելու համար և պահանջում են անվտանգության միջոցառումներ, որոնք ներկայումս հասանելի չեն։

Նա նաև զգուշացրել է, որ չնայած արհեստական ​​բանականությունը կարող է աջակցել անվտանգությանը, լայնածավալ, արհեստական ​​բանականությամբ հզորացված հսկողությունը կարող է ռիսկեր առաջացնել քաղաքացիական ազատությունների համար։

Anthropic-ը և Պենտագոնը շաբաթներ շարունակ բանակցություններ են վարում։

Թրամփի վարչակազմը սպառնացել է կիրառել «Պաշտպանության արտադրության մասին» օրենքը, որը լիազորում է կառավարությանը ստիպել ընկերություններին առաջնահերթություն տալ պաշտպանության կարիքներին, և քննարկում է Anthropic-ը որպես «մատակարարման շղթայի ռիսկ» պիտակավորելու հնարավորությունը։ Նման դասակարգումը կխանգարի Պաշտպանության նախարարության կապալառուներին օգտագործել ընկերության ծրագրային ապահովումը։

Axios-ը հաղորդել է, որ Պենտագոնը սկսել է քայլեր ձեռնարկել այս դասակարգման ուղղությամբ՝ խնդրելով Boeing-ին և Lockheed Martin-ին մանրամասնել իրենց կախվածությունը Claude-ից։

Պենտագոնի խոսնակ Շոն Փարնելը, սակայն, հերքել է, որ նախարարությունը մտադիր է արհեստական ​​բանականություն օգտագործել լիովին ինքնավար զենքերի համար՝ առանց անօրինական վերահսկողության կամ մարդկային միջամտության։

X-ում գրառման մեջ Փարնելը նշել է, որ Պենտագոնը մտադիր է օգտագործել Anthropic-ի մոդելը «բոլոր օրինական նպատակներով» և թույլ չի տա մասնավոր ընկերությանը որոշել գործառնական որոշումները։