Dezvoltarea sistemelor autonome de armament bazate pe inteligenţa artificială - între respectareas drepturilor omului şi menţinerea avantajelor tehnologice în plan militar

Context general

Pe măsură ce inteligența artificială (I.A.) își găsește aplicabilitatea în tot mai multe domenii ale activității umane, cum ar fi producția industrială de bunuri, sisteme de comunicații, sisteme de sănătate, finanțe, transporturi, guvernele din întreaga lume investesc din ce în ce mai mult în aplicații militare ale inteligenței artificiale. Multe dintre ele dezvoltă deja programe și tehnologii bazate pe inteligență artificială, cu obiectivul de a obține un avantaj față de potențialii adversari, fapt ce creează o presiune crescândă pentru ca și alții să urmeze acest trend. Aceste investiții par să marcheze etapele incipiente ale unei curse a înarmării în domeniul I.A. La fel ca și cursa armelor nucleare din secolul al XX-lea, acest tip de escaladare militară se poate transforma într-o amenințare pentru întreaga umanitate și, în cele din urmă, poate fi chiar o cursă fără învingător în situația proliferării fără control a aplicațiilor militare bazate pe I.A.

Evoluțiile din ultimii ani în domeniul IA fac posibil ca o mulțime de sisteme militare să încorporeze tehnologii bazate pe IA. Aceste sisteme pot fi de la cele mai simple, cum sunt cele destinate logisticii, transporturilor militare, asigurării mentenanței pentru diferite tipuri de tehnică, la sisteme de supraveghere bazate pe diferite tipuri de senzori până la sisteme complexe de analiză și luare a deciziei sau sisteme de armament autonome capabile să îndeplinească sarcini și misiuni pe cont propriu. În domeniul militar, aceste evoluții generează, în principal în rândul statelor și organizațiilor capabile să producă astfel de sisteme, ample dezbateri cu privire la faptul dacă aceste sisteme, în special cele de arme cu muniție letală (așa numiții „roboți ucigași”), ar trebui să aibă posibilitatea de a executa misiuni autonome, mai ales dacă sunt puse în pericol vieți umane. La aceste dezbateri, ce au loc în cadru oficial până la nivelul O.N.U., au aderat atât statele interesate, cât și organizațiile internaționale, reprezentanții companiilor ce produc tehnologii I.A., personalități ale lumii științifice, lideri politici și militari.

Sunt justificate îngrijorările exprimate privind dezvoltarea sistemelor autonome de armamente?

Pentru a încerca un răspuns la o astfel de întrebare voi face o scurtă trecere în revistă a modului cum a evoluat problematica I.A. în domeniul militar, pentru a identifica care este sursa temerilor exprimate cu privire la aceste evoluții. O serie de state dezvoltate atât din punct de vedere economic cât și militar încorporează deja de câteva zeci de ani diferite grade de autonomie în sisteme de armamente. Aceste îmbunătățiri tehnologice contribuie la realizarea unei precizii superioare și la desfășurarea unor operații militare mai sigure. Spre exemplu, munițiile ghidate cu precizie permit ca o operație să fie finalizată cu costuri mai reduse în ceea ce privește cheltuielile cu armamentul și muniția utilizată și cu mai puține pagube colaterale, iar vehiculele pilotate de la distanță pot reduce riscul pentru personalul militar. Cu toate acestea, îndepărtarea de controlul uman direct al sistemelor de arme implică unele riscuri și ridică întrebări referitoare la aspectele de legalitate și etica pentru acest tip de acțiuni. Cerința cheie pentru încorporarea în continuare a sistemelor de arme autonome și semi-autonome în planificarea operațiilor și în structura de forțe a diferitelor armate este de a asigura că toate aceste sisteme sunt utilizate într-un mod compatibil cu dreptul internațional umanitar. În plus, guvernele statelor ce dezvoltă sisteme de arme autonome ar trebui să contribuie cu măsuri adecvate pentru a controla proliferarea acestora și să lucreze cu partenerii și aliații pentru a dezvolta standarde legate de dezvoltarea și utilizarea unor astfel de sisteme.

În principiu, I.A. are potențialul de a oferi beneficii semnificative pentru o serie de activități legate de apărare. Activitățile non-letale, cum ar fi logistica, întreținerea, activitățile din bazele militare, asistența medicală a veteranilor, asistența medicală pe câmpul de luptă și evacuarea răniților, managementul personalului, navigația, comunicațiile, apărarea cibernetică și analiza informațiilor pot să beneficieze de I.A., ceea ce face ca forțele militare să acționeze mai sigur și mai eficient. I.A. poate juca, de asemenea, un rol important în noile sisteme pentru protecția forței și a obiectivelor strategice și în descurajarea atacurilor executate cu mijloace neletale.

În timp ce ficțiunea științifică ilustrează adesea I.A. ca pe niște roboți cu caracteristici asemănătoare omului, I.A. poate cuprinde orice, de la algoritmii de căutare Google, la asistentul Watson[1] de la I.B.M. și la sistemele complexe de arme autonome. Inteligența artificială este recunoscută, dacă ne raportăm la nivelul actual de evoluție, ca având o acţiune limitată, prin faptul că este concepută să îndeplinească sarcini specific (de exemplu recunoașterea facială, căutări pe internet, conducerea unei mașini). Cu toate acestea, scopul pe termen lung al multor cercetători și companii din domeniu este acela de a crea I.A. generală (sau I.A. avansată). În timp ce I.A. limitată poate depăși oamenii la orice sarcină specifică, cum ar fi jocul de șah sau rezolvarea ecuațiilor, I.A. generală ar întrece oamenii la aproape fiecare sarcină cognitivă, având totodată şi capacitatea de a autoînvăţa din propria experienţă.

Stephen Hawking, Elon Musk, Steve Wozniak, cărora li s-au alăturat mulți cercetători de top din domeniul I.A. și-au exprimat îngrijorarea fie prin intermediul mass-media, fie prin scrisori deschise adresate publicului larg, despre riscurile pe care le generează I.A. În esență, cum poate deveni I.A. periculoasă? Majoritatea cercetătorilor sunt de acord cu faptul că o I.A. superinteligentă este puțin probabil să manifeste emoții umane precum dragostea sau ura și că nu există niciun motiv să se aștepte ca I.A. să devină intenționat binevoitoare sau malefică. În schimb, atunci când analizează modul în care I.A. poate deveni un risc, experții consideră două scenarii ca fiind probabile:

Scenariul nr. 1: Sistemul autonom de armament bazat pe I.A. programat să acționeze distructiv scapă de sub control și produce victime umane inclusiv în cadrul forțelor proprii.

Armele autonome sunt sisteme de inteligență artificială programate să ucidă. Intrate în posesia unei persone sau organizații care intenționează să acționeze în manieră distructivă pentru realizarea scopurilor urmărite, aceste arme ar putea provoca cu ușurință victime în masă. Mai mult decât atât, o cursă a înarmării în domeniul IA ar putea duce din greșeală la un război al I.A. care poate avea ca rezultat și pierderi umane. Pentru a evita să fie contracarate de adversar, aceste arme ar fi concepute astfel încât să fie dificil de „oprit”, dar o eventuală pierdere a controlului uman asupra unei astfel de situații nu se poate exclude. Acest risc este prezent chiar și când avem de-a face cu sisteme de IA controlate permanent de om, ceea ce justifică concluzia că riscul va creşte proporţional cu sporirea gradului de autonomie a I.A.

Scenariul nr. 2: Sistemul autonom de armament bazat pe IA este programat să facă ceva benefic, dar dezvoltă o metodă distructivă pentru atingerea scopului său. Acest lucru se poate întâmpla ori de câte ori nu reușim să aliniem complet obiectivele IA cu ale noastre ca oameni, ceea ce este în esență foarte dificil. Spre exemplu, dacă solicităm unei mașini autonome inteligente să ne ducă cât mai repede la aeroport, s-ar putea să ajungem acolo urmăriți de poliție și cu o stare a sănătății nu tocmai bună, obținând nu ceea ce am dorit, ci, literalmente, ceea ce am cerut. Sau, un alt exemplu, dacă un sistem superinteligent are ca sarcină să realizeze un proiect ambițios de geoinginerie, ar putea, ca efect secundar, să provoace distrugeri asupra ecosistemului în care acționează și ar putea privi încercările umane de a-l opri ca o amenințare care trebuie contracarată inclusiv prin folosirea forței.

După cum ilustrează aceste exemple, îngrijorarea pentru I.A. avansată nu este reprezentată de rea-voință, ci de competență. O I.A. super-inteligentă va fi extrem de bună în îndeplinirea obiectivelor sale, iar dacă aceste obiective nu sunt aliniate cu ale noastre, avem o problemă. Ideea că realizarea unei I.A. avansate va avea succes a fost privită timp de secole ca fiind de domeniul science-fiction. Cu toate acestea, datorită descoperirilor recente, multe repere ale I.A., pe care experții le vedeau acum cinci ani realizabile la decenii depărtare în timp au fost deja atinse, ceea ce a făcut ca posibilitatea realizării suprainteligenței artificiale în timpul vieții noastre să fie luată în serios de mulți alți experți. Întrucât ar putea dura zeci de ani până la finalizarea cercetărilor privind siguranța necesară pentru sistemele ce se bazează pe I.A. avansată, majoritatea organizațiilor și statelor preocupate consideră că este prudent să se înceapă acum.

În ultimii ani, problemele legate de dezvoltarea așa-numitelor sisteme letale de arme autonome Lethal Autonomous Weapons Systems (L.A.W.S.) au fost ridicate de personalități ale științei și tehnicii contemporane, de experți tehnici și politicieni din comunitatea internațională. Majoritatea statelor implicate participă la discuțiile desfășurate în contextul L.A.W.S. în cadrul Convenției privind anumite arme convenționale - Certain Conventional Weapons - (C.C.W.) care se întrunește anual. Statele părți la C.C.W. discută probleme tehnice, juridice, militare, etice și alte aspecte legate de tehnologiile emergente, deși este clar că nu există o înțelegere comună a L.A.W.S. Unele state au abordat problematica L.A.W.S. prin prisma aeronavelor pilotate de la distanță („dronele” militare), poziție la care Statele Unite se opun, întrucât acestea consideră că platformele pilotate de la distanță sunt, prin definiție, controlate direct de oameni și sunt echipate la fel ca și avioanele cu echipaj uman. Alte state s-au concentrat pe problematica L.A.W.S. sub aspectul armatelor de roboți și a „controlului uman semnificativ”, ce trebuie exercitat asupra deciziilor legate de viață și moarte care decurg din folosirea acestor „armate”.

O altă serie de state doresc reiterarea faptului că toate sistemele de arme, autonome sau de altă natură, să adere la dreptul umanitar, inclusiv la principiile de distincție și proporționalitate. Din acest motiv, au fost elaborate directive specifice referitoare la implicațiile autonomiei în sistemele de apărare, care conțin cerințe pentru dezvoltarea armelor autonome și semi-autonome. Aceste directive menționează, spre exemplu, că sistemele de arme capabile să selecteze și să angajeze ținte în mod autonom cu folosirea forței letale, să fie dezvoltate numai pe baza aprobărilor obținute la cele mai înalte nivele de decizie politică și militară. Aceste aprobări trebuie obținute odată pentru inițierea proiectelor de cercetare și dezvoltare și din nou înainte de a intra în dotarea unităților combatante. Printre altele, aceste directive impun ca sistemele de arme autonome și semiautonome să fie testate riguros, iar personalul să fie instruit corespunzător în utilizarea lor, pentru a respecta normele internaționale referitoare la conflictele armate.

Având în vedere progresele tehnologiei militare și inteligenței artificiale, oamenii de știință, strategii și experții militari sunt de acord cu toții că viitorul L.A.W.S. este dificil de prevăzut ținând cont de ritmul foarte rapid al schimbărilor în domeniu.

Obiectivul de a păstra beneficiile impactului I.A. asupra societății motivează cercetarea în multe domenii, de la economie și drept la subiecte pur tehnice precum verificarea, validarea, securitatea și controlul L.A.W.S. Devine tot mai important ca un sistem, ce se bazează pe I.A., să facă exact ceea ce se doreşte să facă, mai ales dacă exercită controlul asupra unei mașini, unui avion, stimulator cardiac, sistem de tranzacționare automată sau asupra rețelei electrice.

O altă provocare pe termen scurt este prevenirea unei curse a înarmării ce poate avea consecințe devastatoare în domeniul armelor autonome letale. Există și unele opinii care pun în discuție posibilitatea ca IA generală să fie realizată, iar altele care insistă să garanteze că realizarea IA superinteligente va fi benefică. Institutul „Future of Life Institute” (F.L.I.)[2] recunoaște ambele posibilități, dar de asemenea ia în consideraţie şi potențialul unui sistem de inteligență artificială de a provoca intenționat sau neintenționat pagube materiale importante sau victime umane.

Poziții statale referitoare la Inteligenţa Artificială în domeniul militar

Consider util ca în analiza impactului IA în dezvoltarea tehnologiilor cu destinație militară și a riscurilor ce decurg din acest proces, să facem referire la programele, politicile și pozițiile actuale privind utilizarea IA în domeniul militar de către șapte jucători-cheie: Statele Unite, China, Rusia, Regatul Unit al Marii Britanii, Franța, Israel și Coreea de Sud.

Statele Unite

În 2014, Departamentul Apărării al SUA a lansat „A treia strategie de offset”, al cărei scop era descris astfel: „exploatarea progreselor realizate în domeniul inteligenței artificiale și sistemelor autonome pentru a fi introduse în rețelele de luptă ale Departamentului Apărării”.
Raportul „Pregătirea pentru viitorul IA” din 2016 al aceluiași departament se referă, de asemenea, la militarizarea IA și în cadrul acestuia se afirmă: „Având în vedere progresele realizate în tehnologia militară și în IA mai ales, oamenii de știință, strategii și experții militari sunt cu toții de acord că viitorul LAWS este dificil de prezis și ritmul schimbării este rapid.”
În septembrie 2018, Pentagonul a alocat, prin intermediul Agenției pentru proiecte de cercetare avansată a apărării - The Defense Advanced Research Projects Agency - (D.A.R.P.A.[3]), 2 miliarde USD în următorii cinci ani pentru a „dezvolta următorul val de tehnologii I.A.”.
Programul Advanced Targeting and Lethality Automated System (A.T.L.A.S.), o filială a D.A.R.P.A., „va folosi inteligența artificială și învățarea automată pentru a oferi vehiculelor de luptă la sol capacități autonome pentru lovirea țintelor”.
Referitor la colaborarea cu companii private, aceasta poate deveni dificilă, așa cum a arătat cazul puternic mediatizat referitor la Google și Proiectul Maven[4]; în urma protestelor angajaților, Google a declarat că nu își va reînnoi contractul. Cu toate acestea, alte companii tehnologice precum Clarifai, Amazon și Microsoft colaborează în continuare cu Pentagonul la acest proiect.
Controversele referitoare la Proiectul Maven au mărit distanța dintre comunitatea IA și Pentagon. Pentru a ajuta la eliminarea acestui decalaj, Guvernul a dezvoltat două noi inițiative:
- programul OFF SET al D.A.R.P.A., care are ca scop „utilizarea unui număr de până la 250 de sisteme de aeronave fără pilot (U.A.S.) și/sau sisteme de sol fără pilot (U.G.S.) pentru a îndeplini diverse misiuni în medii urbane complexe”, dezvoltat în colaborare cu un număr de universități și start-up-uri.
- programul de experimentare Squad X al D.A.R.P.A., care urmărește ca luptătorii umani „să aibă un sentiment mai mare de încredere în partenerii lor autonomi, precum și o mai bună înțelegere a modului în care sistemele autonome ar acționa probabil pe câmpul de luptă”, dezvoltat în colaborare cu Lockheed Martin Missiles.
S.U.A. au subliniat necesitatea dezvoltării „unei înțelegeri comune a riscurilor și beneficiilor acestei tehnologii înainte de a decide cu privire la un răspuns specific la nivel politic” și au exprimat convingerea că este prematur să se înceapă negocierea oricărui instrument juridic sau politic special.

China

La nivelul guvernului chinez au fost exprimate cu diferite ocazii apeluri pentru a se evita o cursă a înarmării în domeniul IA. Pericolul reprezentat de această cursă a avut ecou înclusiv în sectorul privat; spre exemplu, președintele companiei „Alibaba” a declarat că noile tehnologii, inclusiv învățarea automată și inteligența artificială, ar putea duce la un al treilea război mondial. În ciuda acestor îngrijorări exprimate, conducerea Chinei continuă să sprijine dezvoltarea I.A. în scopuri militare. Pentru a promova inovația militară, președintele Xi Jinping a solicitat să fie urmată „calea fuziunii militar-civil ca stil de inovare”, astfel încât inovația militară să fie integrată în sistemul național de „inovăţământ” al Chinei. Această fuziune a fost ridicată la nivel de strategie națională. Ca urmare, Armata Populară de Eliberare se bazează în acest domeniu foarte mult pe marile companii tehnologice și pe start-up-urile inovatoare, întrucât cele mai mari organizații de cercetare în IA din China se găsesc în sectorul privat. Există de asemenea, un număr tot mai mare de colaborări între instituțiile de apărare și academice din China. De exemplu, Universitatea Tsinghua a lansat Laboratorul de fuziune militaro-civilă pentu apărare națională în domeniul tehnologiilor pentru a crea „o platformă ce vizează dezvoltarea aplicațiilor tehnologiilor emergente cu dublă utilizare, în special a inteligenței artificiale”.

În ceea ce privește aplicarea inteligenței artificiale în sistemele de armamente, China dezvoltă în prezent „drone invizibile” (pentru radar) considerate ca fiind de următoarea generație, incluzând, de exemplu, modelul Blowfish A2 dezvoltat de compania Ziyan. Potrivit companiei, acest model „îndeplinește în mod autonom misiuni de luptă puternic apărate anti-aerian, incluzând identificarea de ținte, misiuni de cercetare în zona fixată și lovirea cu precizie a țintelor prin utilizarea armamentului de la bord”.

China și-a afirmat „dorința de a negocia și încheia” un nou protocol „pentru a interzice utilizarea unor sisteme de arme letale complet autonome”.

Rusia

În timp ce Rusia nu are încă o strategie de IA doar pentru domeniul militar, ea pledează pentru o integrare a IA într-o abordare mai cuprinzătoare. „Fundația pentru Proiecte de Cercetare Avansată”, care poate fi văzută ca echivalentul rus al D.A.R.P.A. din S.U.A., a deschis în 2015 „Centrul Național pentru Dezvoltarea Tehnologiei și Elementelor de Bază ale Roboticii”. În cadrul unei conferințe din martie 2018 cu privire la I.A., ministrul Apărării a solicitat creșterea cooperării dintre oamenii de știință militari și civili în dezvoltarea tehnologiei IA, despre care a declarat că este crucială pentru combaterea „posibilelor amenințări la adresa securității tehnologice și economice a Rusiei”.

În ianuarie 2019, au apărut rapoarte care au semnalat că Rusia dezvoltă o dronă autonomă, care „va fi capabilă să decoleze, să își îndeplinească misiunea și să aterizeze fără intervenţie umană”, deși „utilizarea armelor va necesita aprobarea umană”. În prezent este în construcție, lângă stațiunea Anapa de la Marea Neagră, un centru de cercetare-dezvoltare dedicat în totalitate inovației militare denumit simbolic „Era Tehnopolis”. Potrivit Kremlinului, „principalul obiectiv al cercetării și dezvoltării planificate pentru acest tehnopolis este crearea de sisteme militare de inteligență artificială și tehnologii de sprijin”.

În 2017, compania „Kalashnikov”-– cel mai mare producător de armament din Rusia – a anunțat că a dezvoltat un modul de luptă complet automatizat bazat pe tehnologii de rețele neuronale care îi permit să identifice ținte și să ia decizii referitoare la acestea.

Rusia a afirmat că dezbaterea privind armele autonome letale nu ar trebui să ignore beneficiile potențiale, adăugând că „preocupările cu privire la L.A.W.S. pot fi abordate prin implementarea fidelă a normelor juridice internaționale existente”.

Marea Britanie

Un raport al Ministerului Apărării din 2018 subliniază că acesta urmărește modernizarea „în domenii precum inteligența artificială, învățarea automată, dezvoltarea lucrului în echipă om-mașină și automatizarea”. Ministerul Apărării are diverse programe legate de IA și autonomie, inclusiv programul „The Autonomy”. Activitățile din acest program includ dezvoltarea algoritmilor, inteligenței artificiale, învățării automate, „dezvoltarea tehnologiilor care stau la baza evoluției sistemelor militare autonome de generație următoare” și optimizarea lucrului în echipă comună om-sistem autonom. „Laboratorul de Știință și Tehnologie a Apărării” - Defense Science and Technology Laboratory - (D.S.T.L.), structura de cercetare a Ministerului Apărării, a lansat în 2018 „Laboratorul de I.A.” (AI Lab).

În ceea ce privește armamentul, cel mai cunoscut exemplu de tehnologie autonomă în curs de dezvoltare este drona armată „Taranis”, un proiect strict secret, considerat „cel mai avansat aparat din punct de vedere tehnic construit în Marea Britanie şi care va executa zboruri demonstrative pentru a-şi proba în faţa liderilor militari şi politici britanici posibilităţile tehnice şi de luptă. De asemenea, Ministerul Apărării britanic a înfiinţat în anul 2016 o organizație interguvernamentală numită „Defense and Security Accelerator” (D.A.S.A.) , al cărui obiectiv este să „găsească și finanțeze inovația exploatabilă pentru a susține rapid și eficient apărarea și securitatea Regatului Unit”. În martie 2019, D.A.S.A. a atribuit un contract de 2,5 milioane GBP companiei „Blue Bear Systems”, în cadrul proiectului „Many Drones Make Light Work. În acest sens, directorul „Blue Bear Systems” a spus: „Capacitatea de a angaja în luptă o mulțime de sisteme autonome ieftine oferă o nouă paradigmă pentru operațiunile pe câmpul de luptă”.

Marea Britanie consideră că un „sistem autonom este capabil să înțeleagă la un nivel superior intenția și direcția”. Se sugerează că autonomia „conferă avantaje semnificative și există deja în sistemele de arme de zeci de ani” și că „evoluția interfețelor om - mașină ne va permite să realizăm funcțiile militare cu mai multă precizie și eficiență,” deși aplicarea forței letale trebuie să fie direcționată de către un om și că un om va fi întotdeauna responsabil pentru decizie”. Marea Britanie a declarat că „actuala lipsă de consens asupra temelor cheie referitoare la L.A.W.S. contează împotriva oricărei interdicții legale” și că „nu ar avea niciun efect practic”.

Franţa

Strategia națională de I.A. a Franței este detaliată în Raportul Villani din 2018, care afirmă că „utilizarea tot mai mare a IA în anumite zone sensibile, cum ar fi în apărare, lansează o adevărată dezbatere la nivelul întregii societăți și implică analiza responsabilității umane”. Acest lucru a fost reflectat de ministrul francez al Forțelor Armate, care a spus că „să acorzi unei mașini opțiunea de a executa foc sau puterea de a decide asupra vieții sau morții iese din discuţie”. În ceea ce privește apărarea și securitatea, Raportul Villani afirmă că utilizarea IA va fi o necesitate în viitor pentru a asigura misiunile de securitate, pentru a menține avantajul asupra potențialilor adversari și pentru a menține poziția Franței față de aliații săi.

Raportul Villani se referă la D.A.R.P.A. (S.U.A.) ca fiind un model de acţiune. Probabil că acesta este şi motivul pentru care președintele Franței şi-a exprimat dorinţa de a sprijini înființarea unei agenții europene pentru inovare în domenii de vârf, care să permită finanțarea tehnologiilor și științelor emergente, inclusiv I.A. Raportul Villani subliniază crearea unui „complex civil-militar de inovație tehnologică, axat pe tehnologia digitală și inteligența artificială.” În septembrie 2018, „Agenția pentru Inovare în Apărare” (D.I.A.) a fost creată ca parte a Direcției Generale Armament (Direction Générale de l’Armement – D.G.A), agenția franceză de achiziții și tehnologii pentru armament.

Unul dintre cele mai avansate proiecte în curs de desfășurare este sistemul aerian de luptă fără pilot „nEUROn”, dezvoltat de producătorul francez de arme „Dassault” în numele DGA, care poate zbura autonom timp de peste trei ore. Patrice Caine, CEO al companiei „Thales”, unul dintre cei mai mari producători de armament din Franța, a declarat în ianuarie 2019 că „Thales” nu va dezvolta niciodată „mașini ucigașe autonome” și că lucrează la un statut de etică legat de IA. Franța înțelege autonomia LAWS ca fiind totală, fără nici o formă de supraveghere umană din momentul activării și nici o subordonare către un lanț de comandă. Franța a afirmat că un instrument juridic obligatoriu pe această temă nu ar fi adecvat, considerând că deocamdată acesta nu poate fi nici realist, nici de dorit. Pe baza convingerilor exprimate, Franța a lanst o declarație politică care reafirmă principiile fundamentale și „subliniază nevoia de a menține controlul uman asupra deciziei finale de utilizare a forței letale”.

Israel

Principala unitate tehnică a Forțelor de Apărare din Israel (Israel Defence Forces – I.D.F.) și motorul din spatele majorității dezvoltărilor sale în domeniul IA este „C4I”. În cadrul „C4I” există filiala „Sigma”, al cărei scop este „să dezvolte, să cerceteze și să implementeze cele mai noi informații în domeniul inteligenței artificiale și cercetării software-ului avansat” pentru a păstra superioritatea tehnologică a I.D.F. Militarii israelieni implementează deja arme cu un grad considerabil de autonomie. Unul dintre cele mai cunoscute exemple este drona „Harpy”, care poate zbura o perioadă mare de timp într-o zonă prestabilită şi care atacă folosind metoda „kamikaze” orice ţinte aflate la sol în momentul în care acestea încep să emită unde electromagnetice (radare, puncte de comandă şi dirijare etc.). Israelul a fost una dintre primele țări care a anunţat că foloseşte roboți complet autonomi (vehicule militare fără conductor pentru a patrula frontiera cu Fâșia Gaza).

Parteneriatele public-privat sunt comune în dezvoltarea tehnologiilor militare ale Israelului. Există o „legătură strânsă între armata israeliană și sectorul digital”, despre care se spune că este unul din obiectivele conducerii statului Israel în domeniul I.A. „Israel Aerospace Industries” (I.A.I.), una dintre cele mai mari companii de armament din Israel, dezvoltă de mult timp sisteme de armament cu autonomie crescută, inclusive avionul fără pilor „Harpy” menţionat anterior.

În anul 2018, Israelul a declarat că „dezvoltarea unor standarde rigide sau impunerea unor interdicții pentru ceva ce poate fi atât de speculativ în acest stadiu incipient, ar fi imprudentă și ar putea duce la un rezultat greșit și neinformat”. Israelul a subliniat că „ar trebui să fim conștienți de avantajele militare și umanitare ale inteligenței artificiale”.

Coreea de Sud

În decembrie 2018, armata sud-coreeană a anunțat lansarea unui institut de cercetare axat pe inteligența artificială, intitulat „Centrul de Cercetare și Dezvoltare pentru I.A.”. Scopul institutului este acela de a valorifica tehnologiile de ultimă oră pentru viitoarele operațiuni de luptă și „a le transforma în turnul de control al confruntărilor militare pentru generația următoare”. Coreea de Sud dezvoltă noi unități militare, inclusiv unitatea „Dronebot Jeontudan” („Războinicul”), cu scopul de a dezvolta și a operaționaliza platforme fără pilot care au o autonomie avansată și alte capacități de ultimă oră.

Coreea de Sud a folosit de asemenea, robotul înarmat de pază SGR-A1, care funcționează în zona demilitarizată dintre Coreea de Nord și Coreea de Sud. Robotul are atât un mod supravegheat, cât și un mod nesupravegheat. În modul nesupravegheat, SGR-A1 identifică și urmărește intruşii și dacă e cazul, declaşează focul fără o intervenție suplimentară a operatorilor umani. Cooperarea public-privat este o parte integrantă a strategiei militare sud-coreene. Planul pentru „Centrul de Cercetare și Dezvoltare pentru I.A.” este „construirea unei rețele de colaborare cu universități locale și entități de cercetare, cum ar fi « KAIST » (Institutul avansat pentru știință și tehnologie din Coreea) și Agenția pentru Dezvoltare a Apărării”.

În septembrie 2018, „Administrația Programului de Achiziție a Apărării” a lansat o nouă strategie de dezvoltare a bazei sale naționale militaro-industriale, cu accent pe stimularea „tehnologiilor Industry 4.0”, cum ar fi inteligența artificială, prelucarea volumelor mari de date și robotica. În 2015, Coreea de Sud a declarat că „discuțiile cu privire la LAWS nu ar trebui să se desfășoare într-un mod care să împiedice cercetarea și dezvoltarea tehnologiei robotice de uz civil”, dar că este „îngrijorată de sistemele de arme complet autonome care înlătură nejustificat controlul uman din bucla operațională, din cauza riscului de funcționare defectuoasă, potențialei lipse de responsabilitate și preocupărilor de ordin etic”. În anul 2018, Coreea de Sud a exprimat îngrijorări cu privire la limitarea aplicațiilor civile, precum și la pozițiile exprimate în favoarea utilizării sistemelor de armament autonome.

Concluzii

Viitorul IA în sistemele militare este legat direct de capacitatea inginerilor de a crea sisteme autonome care să demonstreze o capacitate independentă pentru raționamente bazate pe cunoștințe și pe expertiză. În prezent nu există astfel de sisteme autonome care să fie capabile să opereze într-un teatru de operații. Majoritatea roboților ce acționează pe sol sunt teleoperați, ceea ce înseamnă că un om încă mai controlează direct un robot de la o anumită distanță. Majoritatea U.A.V.-urilor militare, folosite în prezent, au un nivel scăzut de autonomie în zbor, uneori pot ateriza fără intervenția omului, pot colecta date pe care le transmit automat la centre de comandă sau chiar la luptători şi maşini de luptă, dar aproape toate necesită intervenția umană pentru îndeplinirea misiunilor. Chiar și cele destinate colectării de informaţii din zone puternic apărate anti-aerian de inamic au un mod de funcţionare mixt, automat și autonom, adică omul în orice moment poate prelua controlul aparatului sau îi poate schimba misiunea.

În timp ce sistemele operaționale actuale sunt mai mult automate decât autonome, la nivel global se depun eforturi semnificative pentru cercetarea și dezvoltarea sistemelor autonome. Dezvoltarea unor astfel de sisteme militare pentru a acționa în mediile aerian, terestru, acvatic sau subacvatic este în diferite stadii de progres în multe țări, cu grade diferite de succes. Mai multe tipuri de elicoptere autonome, care pot fi dirijate pe câmpul de luptă cu un smartphone de către un soldat, sunt în curs de dezvoltare în S.U.A., în Europa și în China. Vehiculele terestre autonome, cum ar fi tancurile, maşinile de luptă ale infanteriei și vehiculele de transport, sunt în dezvoltare la nivel mondial, ca și diverse tipuri de nave de suprafaţă sau subacvatice. Cu toate aceste evoluții, în aproape toate cazurile saltul de la etapa de dezvoltare la cea de implementare operațională încă nu a fost realizat.

În cadrul dezbaterilor s-au ridicat puncte de vedere referitoare inclusiv la dacă și cum ar trebui controlat procesul de dezvoltare a armelor autonome. În acest sens, s-a ajuns la concluzia că expansiunea rapidă a pieței comerciale pentru sistemele autonome ce acționează atât în spațiul aerian, cât și terestru trebuie să fie luată pe deplin în considerare. Interzicerea unei tehnologii autonome de uz militar ar putea să nu fie o chestiune practică, având în vedere că tehnologiile derivate sau chiar tehnologiile superioare celor dezvoltate în domeniul militar ar putea fi deja disponibile în sectorul comercial. Integrarea este un mod inteligent şi economic de a realiza progresul tehnologic care trebuie luat în consideraţie inclusiv în domeniul militar.

Există totuși și alte aspecte organizatorice care limitează implementarea operațională a sistemelor autonome. O astfel de problemă este schimbarea locului unde se produc cele mai avansate tehnologii în domeniu I.A. O „cursă a înarmărilor” în sens metaforic, este în plină desfășurare cuprinzând atât domeniul militar cât şi pe cel privat. Dezvoltarea sistemelor autonome militare a avut loc lent și a evoluat pas cu pas în cel mai bun caz, de cele mai multe ori pălind în comparație cu progresele realizate în sfera comercială unde marile companii investesc masiv şi obţin rezultate pe măsură. Se pare că militarii înţeleg mai bine natura complexă a războiului şi au mari îndoieli asupra cedării complete a controlului către IA, adică către roboţi.

Ideea de dezvoltare a autovehiculelor autonome (mașinile fără șofer) a pornit pentru prima data în anul 2004, de la un program al D.A.R.P.A. (S.U.A.). Când programul s-a încheiat în 2007, mașinile puteau să se deplaseze doar cu viteză redusă pe circuite închise și nu fără accidente. Un deceniu mai târziu, industria era în măsură să comercializeze oriunde în lume mașini fără șofer. Acest progres rapid este rezultatul unor investiții importante în cercetare și dezvoltare sponsorizate de industrie, precum și concurența pentru un potențial financiar de multe miliarde de dolari pentru piața auto de consum. Între timp, și paradoxal, având în vedere originile acestei tehnologiei, au existat foarte puține progrese în dezvoltarea autovehiculelor militare autonome.

Dezechilibrul dintre militar şi privat în privinţa accesului la tehnologie va aduce, fără îndoială, pentru operațiile militare probleme neprevăzute care pot afecta semnificativ modul de planificare și desfășurare al acestora. De exemplu, dacă companiile de apărare și guvernele vor continua pe calea menținerii unui analfabetism în domeniul I.A., ar putea avea loc un potențial schimb de putere, prin care serviciile critice în domeniul I.A. să fie închiriate de la Google, Amazon, Facebook sau alte companii din domeniu. Dacă militarii sunt puși în situația de a cumpăra roboți și servicii de I.A., cum ar fi analiza de imagine, de la furnizori comerciali, acest lucru ar afecta, fără îndoială, starea de operativitate militară atât pe termen scurt, cât și pe termen lung. De asemenea, ar ridica şi probleme de securitate în ceea ce priveşte protecţia sistemelor şi a datelor.

Diferența dintre superioritatea istorică a militarilor în dezvoltarea avioanelor fără pilot și capacitățile actuale ale sectorului comercial dispare, după cum reiese din numărul tot mai mare de drone cu caracteristici militare oferite spre vânzare prin intermediul internetului. Imagini care prezintă drone echipate cu diverse sisteme de armament, care în trecut era un domeniu rezervat militarilor, pot fi găsite în mod regulat pe YouTube. Este puțin probabil ca industriile private să producă drone care ar putea concura cu UAV-uri foarte avansate, cum ar fi sistemul Predator din dotarea Forțelor Aeriene ale SUA, dar cu siguranță va exista o competiție din partea acestor companii în ceea ce privește performaţele tehnico-tactice din domeniul supravegherii și comunicațiilor. În timp ce DARPA a avut dificultăți în a dezvolta o dronă destinată transportului trupelor, chinezii de la compania „EHang” au construit o dronă comercială care va transporta pasageri.

Având în vedere amploarea actuală a dezvoltării comerciale a dronelor și a altor sisteme robotice, există unele considerente importante de care ar trebui să se ţină seama, cum ar fi posibilele consecințe generate de politica marilor companii private de grăbire a introducerii pe piață a noilor tehnologii de I.A., în raport cu statul național, care are tendinţa de a adopta soluţii mai conservatoare. Lansarea pe cîmpul de luptă a noilor tehnologii bazate pe inteligență artificială fără o testare corespunzătoare ar putea supune atât personalul militar cât și pe cel civil la riscuri nejustificate. Actuala discrepanță în ceea ce privește finanţarea programelor de cercetare-dezvoltare alocate de către sectorul privat în raport cu alocaţiile din domeniul militar, ar putea avea un efect în cascadă asupra tipurilor și calității de autonomie care sunt încorporate în sistemele militare. Un aspect esențial în această privință este dacă firmele din industria de apărare vor avea capacitatea de a dezvolta și testa sisteme autonome sigure și controlabile, în special cele care încorporeză sisteme de foc.

Lupta pentru stabilirea unei noi ordini mondiale, relansarea luptei pentru supremaţie mondială, precum şi actuala cursă a înarmărilor, ne face să estimăm că structurile militare ale marilor puteri vor recupera repede rămânerea în urmă. Tot alocaţiile bugetare vor rezolva şi această problemă. Dezvoltarea rapidă a sistemelor comerciale autonome ar putea normaliza acceptarea sistemelor autonome pentru militari și public, iar aceasta ar putea încuraja structurile militare ale statelor să finanțeze dezvoltarea unor astfel de sisteme la cel puțin același nivel cum o fac pentru sistemele care au pilot uman la bord.

Este de înțeles că multe organizații ar vrea să interzică sau limiteze armele autonome, dar complexitatea domeniului determină adoptarea unei poziții atente și bine fundamentate. Spre exemplu, sistemele autonome de rachete dispuse pe drone vor fi probabil similare cu cele de pe dronele civile ale companiei Amazon ce distribuie ajutoare umanitare, astfel încât interzicerea unuia ar putea afecta pe celălalt.

Deși nu există îndoieli că I.A. va fi rapid integrată în sistemele militare ale tuturor statelor, peisajul se schimbă repede și ia aspecte cu potențial de risc. I.A. avansează, dar având în vedere tendințele actuale, vor mai trece mulți ani înainte ca I.A. să poată fi capabilă să se comporte aproximativ ca inteligența umană în condiții de incertitudine ridicată şi cu schimbări rapide, așa cum sunt cele de pe câmpul de luptă.

Bibliografie:

- Making the Case -The Dangers of Killer Robots and the Need for a Preemptive Ban, https://www.hrw.org/report/2016/12/09/making-case/dangers-killer-robots-and-need-preemptive-ban#_ftn109  
- Russian AI-Enabled Combat: Coming to a City Near You? https://warontherocks.com/2019/07/russian-ai-enabled-combat-coming-to-a-city-near-you/  

Notă: Text republicat cu acordul General Br. (r) Dan Niculescu, redactor-şef al revistei „Dincolo de orizonturi”, Anul 5, nr.9/aprilie 2020

-------------------------------------------
[1] I.B.M. Watson Assistant – este un serviciu IBM disponibil în cloud ce permite programatorilor din cadrul diferitelor companii de software să introducă un asistent virtual cu inteligență artificială în programul pe care îl realizează. Numele, probabil este o aluzie la doctorul Watson, asistentul lui Sherlock Holmes.
[2] Future of Life Institute (F.L.I.) este o organizație de cercetare bazată pe voluntariat cu sediul în Boston care care desfășoară activități pentru diminuarea riscurilor la adresa existenței umanității și în particular a celor generate de IA avansată.
[3]The Defense Advanced Research Projects Agency (DARPA) - agenție a Departamentului pentru Apărare al SUA, responsabilă cu dezvoltarea tehnologiilor emergente cu destinație militară.
[4] Project Maven – un proiect al Pentagonului ce implică folosirea învățării automate pentru identificarea persoanelor și a diverselor obiecte, prin exploatarea imaginilor video obținute de drone, în scopul urmăririi, etichetării și obținerii de informații despre ținte, fără implicare umană.