trump-rupe-relatiile-federale-cu-anthropic.-compania-a-refuzat-folosirea-ai-ului-militar-in-decizii-de-viata-si-moarte

Trump încheie relațiile cu Anthropic din cauza refuzului AI-ului militar

Un incident recent a scos în evidență tensiuni între Pentagon și compania Anthropic în contextul utilizării inteligenței artificiale pentru aplicarea legii și apărare. Disputa vizează modul în care tehnologia AI, în special sistemul Claude, ar putea fi folosit pentru interceptarea rachetelor balistice și alte scopuri militare, iar reacțiile au avut loc după o întâlnire între oficiali de rang înalt din Pentagon și directorul general al Anthropic, Dario Amodei.

Discuții despre utilizarea AI în situații de urgență

Un scenariu prezentat la întâlnire a vizat posibilitatea unei rachete balistice intercontinentale lansate asupra Statelor Unite. Oficialii au întrebat dacă sistemul AI al companiei ar putea ajuta la detecție și interceptare rapidă. Potrivit sursei, Dario Amodei a răspuns evaziv, menționând că „ne-ați putea suna și am rezolva situația”, răspuns care a iritat reprezentanții Pentagonului.
Compania neagă însă acestă relatare, afirmând că tehnologia sa este disponibilă pentru utilizare în apărarea antirachetă și că declarațiile despre un răspuns evaziv sunt complet false.

Cererea Pentagonului pentru extinderea utilizării AI

Pentagonul a solicitat ca sistemul Claude să poată fi folosit pentru „toate scopurile legale”, incluzând arme autonome și programe de supraveghere. Oficialii americani au declarat că nu intenționează să permită supraveghere în masă sau decizii automate privind lansarea armamentului nuclear.
Purtătorul de cuvânt al Pentagonului, Sean Parnell, a spus că această solicitare este „de bun-simț” și că refuzul companiei ar putea „pune în pericol operațiuni militare critice”.

Opinia companiei Anthropic despre riscuri

Dario Amodei a exprimat rezerve privind utilizarea AI în sisteme de armament autonom, afirmând că tehnologia actuală nu este suficient de sigură.
El a precizat că, în anumite cazuri, AI poate submina valorile democratice și a subliniat că utilizări legate de arme autonome și supraveghere extinsă „nu au fost niciodată incluse în contractele lor cu Departamentul Apărării” și nu ar trebui să fie utilizate în prezent.

Decizie federală și impactul asupra companiei

După săptămâni de tensiuni, fostul președinte Donald Trump a anunțat vineri că a cerut agențiilor federale să înceteze utilizarea tehnologiei Anthropic, iar Pentagonul a declarat compania „risc pentru lanțul de aprovizionare”.
Trump a stabilit o perioadă de tranziție de șase luni pentru renunțarea la produsele Anthropic, sub amenințarea unor consecințe serioase în caz de neconformare. Această decizie afectează semnificativ poziția start-up-ului, care avea contracte cu Departamentul Apărării și alte entități federale.

Decizia umană sau automatizată în deciziile militare

Oficialii americani asigură că, în privința armelor nucleare, deciziile vor fi luate întotdeauna de un om. Totuși, sistemele AI pot influența semnificativ recomandările și identificarea țintelor, chiar dacă decizia finală va aparține unei persoane.
Această situație ridică o dispută asupra limitei utilizării tehnologiilor avansate în domeniul militar și asupra responsabilității dezvoltatorilor de AI în contextul deciziilor de război.

Conflictul dintre Pentagon și Anthropic se transformă dintr-o dispută tehnică într-un precedent politic privind controlul asupra tehnologiei militare.
Guvernul vede în AI o componentă strategică, invocând securitatea națională, în timp ce companiile private își exprimă îngrijorarea în privința utilizării riscante sau nedemocratice a produselor lor.
Dezbaterea se centrează asupra întrebării cine ar trebui să stabilească limitele pentru utilizarea AI în domeniul războiului, în condițiile în care tehnologia devine tot mai influentă în procesul decizional militar.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *