Aplicațiile inteligenței artificiale (A.I.) au consecințe majore atât pentru umanitate în ansamblu, cât și pentru fiecare individ; de aceea este vital să se găsească un echilibru între perspectiva dată de progresul AI și societatea umană în ansamblu. Aceasta deoarece erorile asociate cu astfel de tehnologii pot provoca probleme, dar și succesele necontrolate ar putea conduce la probleme și mai grave[1.2].
În medicină, inteligența artificială poate fi clasificată în trei ramuri principale, și anume: virtuală, fizică și mixtă (o combinație între realitatea virtuală și roboți)[1].
Indiferent de ramură, dezvoltarea AI în medicină ridică aceeași întrebare: care sunt limitele tehnice și etice ale unei astfel de tehnologii? Există aproape un consens în lumea medicală că problema esențială a utilizarii AI este cea a riscurilor etice, care afectează siguranța pacientului, autonomia persoanei (exprimată prin consimțământul informat și confidențialitate), protecția datelor personale etc.
Siguranța pacientului
În 2012, sistemul AI Watson (I.B.M.), după o perioadă „de studiu” (ca student la medicină la Cleveland Clinic Lerner College of Medicine din Case Western Reserve University), a promovat examenul de autorizare a medicilor din S.U.A.[3.4]. Imediat s-a speculat: viitorul practicii medicale „standard” ar putea fi un computer ce va înlocui omul?[5.6]. Ulterior, s-a dovedit că Watson utilizat în practica medicală (oncologie) recomandă adesea tratamente nesigure și incorecte, aceasta deoarece datele utilizate pentru antrenarea algoritmului lui Watson nu au fost de la pacienți reali, ci date (ipotetice și insuficiente) de la pacienți virtuali[7]. Și alte sisteme au avut aceeași problemă. S-a constatat că, atunci când întâlnesc date din lumea reală, care diferă de cele din seturile de date de antrenament, performanța AI poate fi mai slabă, ceea ce duce la riscuri clinice crescute[8].
Riscurile și daunele apar din cauza erorilor de programare, testare, certificare a software-ului etc. toate însoțite de diverse aspecte legale și etice (9). Cercetătorii vorbesc despre utilizarea AI în medicină ca despre „o sabie cu două tăișuri” (10) sau o „cutie a Pandorei din secolul XXI”[11]. Există preocupări cu privire la proprietățile unice și riscurile inerente tehnologiilor AI mai ales asupra capacităților acestora de „luare a deciziilor”[12]. Când AI medicală merge prost, poate provoca vătămări grave oamenilor. De exemplu:
- între 2000 și 2013, roboții chirurgicali din Statele Unite au fost responsabili pentru cel puțin 1.391 de incidente care au cauzat vătămări și 144 de decese[13];
- în 2015, britanicii au folosit un robot medical pentru a efectua o intervenție chirurgicală de reparare a valvei cardiace, iar robotul nu numai că a făcut erori operaționale grave, dar a și interferat cu funcționarea corectă a medicilor umani, ducând la moartea pacientului[5];
- în 2019, U.S. Food and Drug Administration (F.D.A.) a descoperit că sistemul chirurgical robotizat ROSA Brain 3.0 are erori grave de software[14]; și exemplele pot continua.
Ce este grav este faptul că defectele A.I. pot pune în pericol mai mulți pacienți decât un diagnostic greșit al unui medic, deoarece sistemele automate vor replica aceste erori la toți pacienții[15].
Cele mai frecvente cauze ale erorilor inteligenței artificiale sunt calitatea datelor introduse, prejudecățile algoritmice și opacitatea algoritmului.
Calitatea datelor
AI folosește diverși algoritmi pentru a găsi corelații neliniare complexe în seturi de date masive analitice[16.17]. Calitatea datelor determină în mod direct capacitatea AI de a rezolva probleme medicale. Există între informaticeni o afirmație axiomatică: „garbage in, garbage out” (gunoi introduci, gunoi iese). În medicina, datele sunt numeroase și complicate. Datele medicale provin din multiple surse și sunt eterogene: date din literatură, date din studiile clinice, date din lumea reală, date din sănătatea publică etc.[18]. Cei care creează algoritmii sunt informaticeni (rar sunt medicii care tratează pacienții) și de aceea se pot înșela atunci când stabilesc pertinența și concludența datelor[19]. Pentru a înlătura acest impediment major ar trebui ca informaticenii să cunoască foarte bine medicina, iar medicii să cunoască foarte bine informatica, ceea ce e greu de realizat. Mai mult, majoritatea bazelor de date utilizate provin de la populații selectate și drept urmare, atunci când sunt aplicate unor grupe de pacienți subreprezentate, algoritmii pot să eșueze[20]. De exemplu, dacă algoritmul este dezvoltat cu date care implică în principal occidentali, poate fi mai puțin precis în diagnosticarea asiaticilor[21]. Așa cum a afirma Johnson în 2020, „sistemele AI sunt la fel de bune ca datele furnizate lor”[22].
Prejudecățile algoritmice
Când s-au introdus aplicațiile AI în medicină, s-a crezut că astfel s-ar putea să se reduca riscurile, să se atenueze părtinirile existente în sistemul de sănătate (cum ar fi de exemplu părtinirile cognitive ale medicilor), conducând astfel la rezultate mai sigure și echitabile[23.24]. Nu a durat mult și s-a constatat că algoritmii pot duce și la rezultate părtinitoare, care pot avea efecte de anvergură asupra rezultatelor[25].
Prejudecățile algoritmice sunt definite ca defecte ale algoritmului și includ atât părtinirea indusă de om, cât și părtinirea indusă de date.
Prejudecățile induse de om sunt determinate de scrierea, în mod intenționat sau neintenționat, a unui algoritm, care reflectă percepțiile morale și interesele relevante ale autorilor[26.27].
Prejudecățile induse de date se referă la părtinirea algoritmului atunci când datele de antrenament nu sunt reprezentative sau insuficiente, ceea ce afectează modelul algoritmului. Ele nu numai că moștenesc părtinirile umane, dar este posibil ca acestea să fie întărite și amplificate[28.29]. În numeroase situații, datele de instruire pentru AI din domeniul medical provin din unități medicale de nivel înalt, ceea ce duce la părtinire frecventă atunci când este utilizată în unități medicale de nivel inferior[30].
Majoritatea algoritmilor exploatează corelațiile brute în date. Aceste corelații sunt adesea produse secundare ale relațiilor sociale importante. Prejudecățile algoritmice provin, uneori, și din datele purtătoare de încărcătură socială și rasială ce pot conduce la inechități și discriminare[30.31.32.33.34.35].
- c. Opacitatea algoritmului
Opacitatea constă în necunoașterea sau neînțelegerea modului în care algoritmul funcționează. Există mai multe explicații privind acest fenomen. Unul ține de secretul comercial și de brevetare. Dezvoltarea AI este dominată de marile companii private, iar algoritmii sunt secrete comerciale pe care companiile le ascund în mod intenționat. Deși companiile AI susțin că, produsele și serviciile lor sunt sigure și etice, ele nu au convins[36] și companiile sunt în continuare criticate pentru că nu s-au angajat în dezbateri semnificative despre produsele și cercetările lor[37.38]. Apoi, incapacitatea personalului medical și a publicului de a înțelege programarea și tehnicile algoritmice, deoarece mulți algoritmi se bazează pe o matematică foarte complicată inaccesibilă acestora[38]. În sfârșit, fenomenul de „cutie neagra algoritmică” ceea ce înseamnă că intrările și ieșirile sunt vizibile și ușor de înțeles, dar procesul de la intrare până la ieșire nu poate fi explicat sau înțeles. Cu alte cuvinte, motivele din spatele rezultatelor unui algoritm nu sunt înțelese și nu pot fi interpretate nici măcar de creatorii lui[38.39].
Consimțământul informat
Potrivit legislației internaționale transpusă în legislații naționale, pacientul are dreptul de a obține informații și de a pune întrebări înainte de orice procedură și orice tratament. Pacienții pot refuza investigațiile și tratamentul în orice moment. De aceea pacienții ar trebui să fie informați despre riscurile ce decurg din utilizarea AI, despre erorile de programare, despre protecția datelor personale, despre cine este responsabil atunci când aceste dispozitive medicale robotizate cu AI eșuează etc. Dar așa cum s-a menționat deseori nici medicii nu au acces la toate informațiile privind AI și la fel de des chiar dacă le au, nu le înțeleg. Atunci cum le pot pune la dispoziția pacientului? De regulă, pacienții acceptă sistemul AI fără a pune la îndoială performanța acestuia ceea ce conduce la un consimțământ formal și viciat. Cum reacționează autoritățile medicale pentru a acoperi aceasta lacună? Se încearcă tot felul de soluții deocamdată fără rezultate. Rămân actuale întrebările cu privire la modul în care structurile de răspundere din medicină vor gestiona eficient problemele legate de tehnologiile AI implementate[40].
Confidențialitatea și protecția datelor
AI ridică preocupări legate de confidențialitatea pacienților și utilizarea datelor acestora. Acestea sunt legitime, deoarece datele pacienților au o valoare ridicată pentru cercetare și afaceri, și de aceea încălcarea regimului protecției datelor are loc frecvent. În 2017, peste 15% din încălcările globale ale datelor au venit din industria sănătății (pe locul doi - după sectorul financiar)[41], au ajuns la un nivel record în 2021 - afectând peste 45 de milioane de oameni[42], iar conform Raportului Critical Insights 97% dintre persoanele afectate de o încălcare a securității cibernetice în prima jumătate a anului 2022 au fost rezultatul unor acțiuni de hacking și IT[43].
Cantitățile enorme de date cu caracter personal colectate din diverse surse și inserate în algoritmi AI în scopuri medicale, pot produce atingeri ale confidențialitatii pacientului[44]. Datele colectate pot fi piratate sau utilizate (ilegal) în alte scopuri cu reducerea la minimum a confidențialitații aceasta deoarece ele pot fi de mare ajutor în marketing, publicitate și vânzările companiilor farmaceutice și de biotehnologie[45.46]. Vulnerabilitățile securității cibernetice ale AI pot fi o amenințare gravă pentru confidențialitatea pacientului, deoarece sunt, de obicei, ascunse și descoperite numai după ce daunele au fost cauzate și s-au produs rezultatele negative[47.48]. În plus, multe tehnologii AI ajung să fie deținute și controlate de entități private, ceea ce însemna că astfel de corporații joacă un rol mai mare decât cel obișnuit în obținerea, utilizarea și protejarea informațiilor despre sănătatea pacientului. Acest lucru ridică noi probleme de confidențialitate legate de implementare și securitatea datelor[49]. În literatură, o atenție semnificativă este acordată dezvoltării tehnicilor de păstrarea confidențialității și depășirii problemelor care împiedică adoptarea AI într-un mediu clinic real[50]. Odată cu instrumentele tehnice necesare pentru a îmbina colecții mari de date și pentru a distribui interogări pe baze de date disparate, cercetătorii vor trebui sa utilizeze metode de anonimizare și dezidentificare a datelor[51]. Această capacitate de a dezidentifica sau anonimiza datele poate fi compromisă sau chiar anulată de noii algoritmi, care au reidentificat cu succes astfel de date[50].
Puține dezbateri s-au concentrat asupra unui risc important al tehnologiilor AI și anume: cel al dezumanizării actului medical. Empatia, simpatia, compasiunea sunt emoții unice umane inaccesibile inteligenței artificiale. Pacienții vor pierde astfel empatia, bunătatea și comportamentul adecvat atunci când au de-a face cu „medici și asistente roboți”. Mai mult, dacă medicii și ceilalți furnizori de îngrijire medicală pot să solicite consultanță sau să ofere consultanță colegilor lor, acest lucru nu este posibil în sistemele autonome (robotice) AI și pacientul este privat de un drept – dreptul la a doua opinie. Acestea sunt cele mai semnificative aspecte negative ale inteligenței artificiale în știința medicală[52.53].
În sfârșit, se poate afirma că deși în prezent rezultatele arată că AI poate depăși oamenii în multe aspecte, ea nu posedă în esență liberul arbitru, nu are subiectivitate morală, nu poate evalua independent și sintetic problemele medicale, nu poate conceptualiza, îi lipsește nivelul de cunoaștere necesar gândirii critice, nu poate fi un subiect responsabil[54.55.56.57]. Mai mult, studiile, care raportează aplicarea AI în practica clinică, sunt limitate atât din cauza designurilor retrospective și a dimensiunilor eșantionului, cât și a selecției și prejudecăților de spectru; se potrivesc optim cu un anumit set de date (prin supraajustare), dar nu obțin aceleași rezultate cu alte date similare [57.58]. De aceea medicii, atunci când consideră că un sistem de diagnostic și tratament medical AI este în cea mai mare parte precis și acceptă rezultatele sistemului (fără a-i pune la îndoială limitele), se plafonează (nereușind să-și mențină abilitățile) și participă la dezumanizarea profesiei[59].
În concluzie, noile metode AI nu sunt un panaceu; pot greși, pot funcționa doar într-un domeniu îngust, pot avea prejudecăți, pot discrimina, pot afecta în mod disproporționat grupurile marginalizate. Adoptarea precipitată a sistemelor AI, netestate suficent, ar putea duce la erori, ar putea cauza prejudicii pacienților, ar putea eroda încrederea în medicina. Tehnologiile AI nu vor putea înlocui personalul medical uman, dar sub control uman pot fi instrumente eficiente în medicină.