Un raport militar al SUA indică planuri de a influența opinia publică din afara granițelor prin propagandă generată de inteligența artificială, într-un registru ce amintește de practici ale Rusiei și Chinei.

SUA își propune să folosească tehnici de învățare automată pentru a crea și distribui conținut propagandistic în afara teritoriului, cu scopul de a influența audiențe străine și de a neutraliza opiniile critice, conform unui document intern al Comandamentului pentru Operațiuni Speciale.
Raportul detaliază o serie de tehnologii aspirate, de la camere de supraveghere avansate și senzori la arme cu energie direcționată și alte dispozitive, menite să ajute operativii să localizeze și să neutralizeze țintele, iar pe lângă acestea include și software bazat pe învățare automată destinat războiului informațional.
Pentagonul caută un contractor capabil să furnizeze capabilități AI sau platforme multi-LLM cu roluri specializate, menite să extindă amploarea operațiunilor de influență în spațiul informațional.
Agenții AI reprezintă soluții automate care funcționează cu directive sau cu supraveghere umană redusă și pot opera împreună cu modelele lingvistice mari pentru a genera conținut la cerere.
Oficialii americani consideră că aceste metode ar putea susține o operațiune autonomă de propagandă.
Raportul semnalează că mediul informațional evoluează atât de rapid încât forțele armate ar avea nevoie de un program dedicat pentru a modela narațiunile și a răspunde în timp real audiențelor online.
Ce include în continuare lista de cerințe a Pentagonului pentru capabilități AI
Raportul indică necesitatea de a atinge capabilități cât mai apropiate de cele sugerate pentru China, folosind boți software capabili să analizeze și să absoarbă volume mari de discuție online pentru a convinge mai eficient populația-țintă.
SOCOM își dorește sisteme automatizate ce pot extrage informații din mediul online, analiza situația și răspunde cu mesaje aliniate obiectivelor; aceste tehnologii ar trebui să poată răspunde la postări, să suprime argumentele disidente și să producă materiale de referință care să susțină mesajele favorabile.
Pentagonul își manifestă grijă față de persoanele sau grupurile care ar putea denunța sau expune eforturile sale de propagandă.
Raportul propune accesul la profiluri, rețele și sisteme ale indivizilor sau grupurilor ce contracarează mesajele, folosind informațiile obținute pentru a crea mesaje mai țintite care să influențeze persoana sau grupul vizat.
Se anticipează utilizarea tehnologiilor generative atât pentru a concepe mesaje de propagandă, cât și pentru a simula modul în care ar fi receptată propaganda odată lansată.
Printre cerințe figurează și capabilități ofensive bazate pe imagini deepfake, parte a unui set de solicitări discutate în 2023 de presa de investigație.
Se avertizează că un val de propagandă bazată pe inteligența artificială poate apărea fără limită dacă ținta este receptată, în special în contextul în care ținta e o țară.
Interdicția de a livra propagandă publicului american
Cadrul legal și politicile interne interzic, în general, campaniile de propagandă militară adresate publicului din SUA, iar anonimatul spațiului online complică aplicarea acestor reguli.
Purtătorul de cuvânt al SOCOM a afirmat că programul vizează capabilități AI de vârf.
El a subliniat că toate capabilitățile AI sunt dezvoltate în cadrul unui model de Inteligență Artificială Responsabilă, cu supraveghere și decizii umane, fiind în linie cu legile și politica SUA, iar operațiunile nu vizează publicul american.
Uneltele de procesare a limbajului natural au câștigat popularitate, oferind posibilitatea de a genera rapid text pe aproape orice subiect și ton, facilitând adaptarea mesajelor pentru un număr nelimitat de audiențe.
Experții au documentat utilizări problematice; în 2024 a fost publicat un raport care detaliază încercări ale actorilor străini de a folosi aceste unelte în campanii de influență clandestine.
Freedom House avertizează despre puterea represivă a inteligenței artificiale
Un raport din 2023 al organizației Freedom House avertizează asupra puterii represive a AI, estimând că campaniile de dezinformare asistate de AI vor crește pe măsură ce actorii rău intenționați dezvoltă metode noi de a ocoli protecțiile și de a exploata modele open-source.
Avertizarea este că regimuri autoritare ar putea folosi inteligența artificială generativă, iar în SUA discuțiile despre utilizarea tehnologiei includ exemple legate de campanii electorale și conținut video manipulat cu lideri politici.
Experții evidențiază că nivelul de îngrijorare publică depinde de amploarea utilizării acestor sisteme de propagandă automate.
Un specialist de la RAND explică că asemenea sisteme apar din necesitatea de a contracara influența malignă la scară; regimuri precum cele din China și Rusia investesc în AI pentru războiul informațional, iar grupuri susținute de statul chinez au dezvoltat soluții la scară.
Analistul consideră că răspunsuri AI la scară ar fi parte a contracarării acestor campanii.
SUA își intensifică preocupările legate de propaganda online provenită din guverne străine
Jessica Brandt de la Brookings a avertizat încă din 2023 că LLM-urile pot crește personalizarea mesajelor și, în consecință, forța de persuasiune a campaniilor informatice.
Într-un ecosistem online dominat de război informațional bazat pe AI, este de așteptat ca încrederea în adevărul obiectiv să scadă.
Un studiu publicat în 2024 în PNAS Nexus arată că modelele lingvistice pot genera texte aproape la fel de convingătoare pentru publicul american ca materialele din campaniile clandestine de propagandă străină.
Editorialele recente avertizează că propaganda bazată pe AI este o realitate în creștere, iar America ar trebui să adopte un răspuns coordonat; exemplele includ soluții software dezvoltate în China pentru războiul informațional.
Experții notează că aceste tehnologii pot analiza conținutul public online și pot genera campanii de propagandă personalizate, iar surse indică că soluții AI dezvoltate în China au fost proiectate pentru influența opiniei publice.
Cei doi analiști subliniază necesitatea unui răspuns coordonat la nivel guvernamental, academic și privat pentru a contracara propaganda străină bazată pe AI, printr-un cadru defensiv.
Totuși, documentul militar pare să sugereze o traiectorie diferită, iar această idee este dezbătută în analizele publice.
Imagine: credit foto Dreamstime.