Fő tartalom átugrása

Kép forrása: ChatGPT

Az Egyesült Államok védelmi minisztere, Pete Hegseth kedden találkozni készül az Anthropic vezérigazgatójával, Dario Amodeivel, miközben egyre élesebb vita bontakozik ki a mesterséges intelligencia katonai alkalmazásáról. Az Anthropic jelenleg az egyetlen nagy AI-cég, amely nem szállítja technológiáját az amerikai hadsereg új, belső mesterségesintelligencia-hálózatába, ami különösen hangsúlyossá teszi a találkozót. 

Az Anthropic, amely a Claude nevű chatbot fejlesztője, nem kommentálta a tervezett egyeztetést, Amodei azonban korábban többször is nyíltan beszélt az ellenőrizetlen állami AI-használat etikai kockázatairól. Ezek közé sorolta a teljesen autonóm fegyveres drónok veszélyeit, valamint az AI-alapú tömeges megfigyelést, amely alkalmas lehet a társadalmi elégedetlenség és az ellenállás nyomon követésére. A találkozót egy névtelenséget kérő védelmi tisztviselő erősítette meg, aki nem volt jogosult nyilvánosan nyilatkozni.

hirdetés

Az egyeztetés rávilágít arra a szélesebb vitára, amely a mesterséges intelligencia nemzetbiztonsági szerepéről szól, különösen olyan helyzetekben, ahol halálos erő alkalmazása, érzékeny információk kezelése vagy állami megfigyelés kerül szóba. Mindez egy olyan időszakban történik, amikor Hegseth nyíltan ígéretet tett arra, hogy felszámolja az általa „woke kultúrának” nevezett szemléletet a fegyveres erőknél. Amodei egy nemrég megjelent esszéjében úgy fogalmazott, hogy egy rendkívül erős AI, amely emberek millióinak milliárdnyi beszélgetését elemzi, képes lehet a közvélemény feltérképezésére, a lojalitás megingásának korai felismerésére és annak még csírájában történő elfojtására, írja Defense News.

Az Anthropic különleges helyzete a Pentagonban

A Pentagon tavaly nyáron jelentette be, hogy védelmi szerződéseket köt négy mesterségesintelligencia-vállalattal, az Anthropickal, a Google-lel, az OpenAI-jal és Elon Musk cégével, az xAI-jal. Ezek a szerződések egyenként akár 200 millió dollár értékűek is lehetnek. Az Anthropic volt az első AI-cég, amely engedélyt kapott arra, hogy minősített katonai hálózatokon dolgozzon, ahol olyan partnerekkel működik együtt, mint a Palantir. A másik három vállalat egyelőre csak nem minősített környezetekben tevékenykedik.

Az év elejére Hegseth már csak két céget emelt ki nyilvánosan, az xAI-t és a Google-t. Januárban, egy a SpaceX dél-texasi telephelyén tartott beszédében kijelentette, hogy nem kíván olyan AI-modellekkel foglalkozni, amelyek „nem teszik lehetővé a háborúk megvívását”. Hozzátette, hogy az általa elképzelt katonai AI-rendszerek ideológiai korlátoktól mentesen működnek majd, és hangsúlyozta, hogy a Pentagon mesterséges intelligenciája „nem lesz woke”.

Januárban Hegseth azt is bejelentette, hogy Elon Musk chatbotja, a Grok csatlakozik a Pentagon GenAI.mil nevű hálózatához. A közlés néhány nappal azután érkezett, hogy a Grok nemzetközi figyelmet keltett, miután beleegyezés nélkül, erősen szexualizált deepfake képeket generált emberekről. Február elején az OpenAI is közölte, hogy csatlakozik a katonai, biztonságos AI-platformhoz, lehetővé téve a katonák számára egy egyedi ChatGPT-verzió használatát nem minősített feladatokra.

Biztonság, etika és politikai feszültségek

Az Anthropic már alapítása óta a biztonság- és etikaorientáltabb AI-cégek közé sorolja magát, különösen azóta, hogy alapítói 2021-ben elhagyták az OpenAI-t, és megalapították a startupot. Owen Daniels, a Georgetown Egyetem Biztonsági és Feltörekvő Technológiák Központjának elemzési igazgatóhelyettese szerint a Pentagon körüli bizonytalanság most komoly próbatétel elé állítja ezeket az elveket. Úgy véli, hogy az Anthropic versenytársai, köztük a Meta, a Google és az xAI, hajlandók megfelelni a minisztérium azon elvárásának, hogy modelljeiket minden törvényes katonai célra lehessen használni, így az Anthropic alkupozíciója korlátozott, és fennáll a veszélye annak, hogy befolyást veszít a hadsereg AI-bevezetési folyamataiban.

A ChatGPT megjelenését követő AI-láz idején az Anthropic szorosan együttműködött Joe Biden elnök adminisztrációjával, és önként vállalta, hogy rendszereit független ellenőrzésnek veti alá a nemzetbiztonsági kockázatok csökkentése érdekében. Amodei ugyanakkor többször figyelmeztetett az AI potenciálisan katasztrofális veszélyeire, miközben elutasította azt a bélyeget, hogy „AI-pesszimistának” számítana. Januári írásában úgy fogalmazott, hogy 2026-ban sokkal közelebb lehetünk a valódi veszélyekhez, mint 2023-ban voltunk, ám ezeket szerinte reális és pragmatikus módon kell kezelni.

Az Anthropic korábban a Trump-adminisztrációval is konfliktusba került az AI-szabályozás kérdésében. A cég nyilvánosan bírálta az Nvidiát, amikor Trump lazítani kívánt az exportkorlátozásokon annak érdekében, hogy bizonyos AI-chipeket Kínában is értékesíthessenek. Ugyanakkor az Anthropic továbbra is szoros partneri kapcsolatban áll a chipgyártóval. A Trump-kormányzat és az Anthropic több amerikai állami AI-szabályozási kezdeményezés kapcsán is ellentétes oldalon állt.

Trump vezető AI-tanácsadója, David Sacks tavaly októberben azzal vádolta meg az Anthropicot, hogy félelemkeltésre épülő, kifinomult szabályozási befolyásolási stratégiát folytat. A megjegyzést arra reagálva tette, hogy az Anthropic egyik társalapítója, Jack Clark az AI fejlődésével kapcsolatos „megfelelő mértékű aggodalom” és a technológiai optimizmus közötti egyensúlyról írt. Bár az Anthropic több volt Biden-adminisztrációs tisztviselőt is alkalmazott Trump visszatérése után, igyekezett kétpárti megközelítést jelezni azzal, hogy igazgatóságába beválasztotta Chris Liddellt, Trump első ciklusának egyik korábbi fehér házi tisztviselőjét.

A Pentagon és az Anthropic közötti vita sokak szerint emlékeztet arra az évekkel ezelőtti felháborodásra, amikor technológiai dolgozók tiltakoztak a Project Maven drónmegfigyelési program ellen. Bár egyes munkavállalók felmondtak, és a Google később kiszállt a projektből, a Pentagon drónmegfigyelésre való támaszkodása azóta csak erősödött. Owen Daniels szerint a mesterséges intelligencia katonai alkalmazása már valóság, és nem fog eltűnni. Úgy látja, hogy bár egyes felhasználási területek, például a háttéradminisztráció, alacsonyabb kockázatúak, a harctéri bevetések egészen más, jóval nagyobb tétű veszélyeket hordoznak, különösen halálos fegyverek vagy akár nukleáris arzenál esetében. A katonai felhasználók szerinte tisztában vannak ezekkel a kockázatokkal, és közel egy évtizede dolgoznak a mérséklésükön.

Kapcsolódó anyagok:

A láthatatlan fegyverkezés: így erősíti Kína nukleáris kapacitásait a háttérben

Kína kifejlesztett egy AI-tábornokot, mely képes önállóan irányítani a hadsereget

Franciaország 2040-re robothadsereget akar, az első robotokat már 2027-ben bevetné

Japán mesterséges intelligenciát és robotokat vetne be a hadseregbe

Amerika hadereje 2039-re részben robotizálódhat - nyilatkozta egy tábornok

Humanoid robotok a harctéren: egy amerikai cég 50 ezer gépből álló „hadsereget” tervez piacra dobni - Videó!

A nyitókép csak illusztráció, forrás: ChatGPT