Beneficiarul, adică pacientul, uneori nici nu știe că este folosită inteligența artificială sau în ce măsură este folosită. Presupunând că ar apărea o problemă - nu neapărat o eroare - și ar cere responsabilizare, lucrurile nu ar fi deloc bune dacă pacientul ar afla abia atunci, când se stabilesc vinovățiile, că, de fapt, medicul în care el a avut încredere, independența lui profesională – care este un principiu moral și etic fundamental în orice cod de etică și deontologie – era mimată și ghidată, lipsindu-l de autonomie, de inteligența artificială pe care el o folosea, poate, în timpul în care vorbea cu pacientul lui", a spus medicul.
„Nu trece săptămâna până când un gigant al internetului, o mare firmă de computere să nu anunțe că a lansat un dispozitiv medical. FDA-ul a aprobat recent pentru Apple ceasul care nu numai că măsoară tensiunea, dar pune și diagnosticul. Aparatele de investigații - tomografie, RMN - analizează slide-urile, oferă medicului doar câteva imagini dintre cele 62, pe cele pe care le suspectează de posibile probleme. Dacă apare o eroare - vorbim de malpraxis, vorbim de etică, de litigii - cine răspunde, dacă greșește tomograful?”, a întrebat jurnalistul Val Vâlcu.
„Parafrazând o alocuțiune celebră a unuia dintre giganții la care făceați referire - în cazul ăsta e vorba de Google – cred că inteligența artificială nu are ca și scop să ne înlocuiască, ci să ne facă mai buni sau să ne augmenteze, să ne facă să fim mai performanți. Asta ar fi ca principiu.
Exemplele pe care le-ați dat sunt exemple în care instrumente care, totuși, sunt doar instrumente, oricât de multă inteligență artificială au incorporată în ele, vin ca să ajute și să facă omul mai conștient de tehnologie, de multitudinea fațetelor vieții sociale, printr-o corelație între ele. Deci, din nou, ca să ne augmenteze.
Poate sunt mai optimist față de alții, dar nu cred că putem fi înlocuiți, cu atât mai puțin în domeniul medical, din multe motive, dar unul dintre ele este relația interumană. Inteligența artificială poate oferi instrumentele, uneori chiar cu mai multă competență decât noi sau mai eficient decât noi, dar nu ne poate înlocui în relația dintre noi și ceilalți, iar această relație este fundamentală pentru relația medic–pacient. De asta cred că nu avem de ce să ne temem că vom putea fi înlocuiți, dar avem probabil de ce să ne temem că actul medical ar putea fi depersonalizat sau chiar dezumanizat în unele situații”, a spus prof. univ. dr. George Cristian Curcă.
Prof. univ. dr. George Cristian Curcă, directorul INML, specialist în medicină legală și bioetică
Dacă apare o eroare sau un rezultat nefavorabil, cine răspunde?
Medicul a explicat că problema responsabilității, în cazul folosirii inteligenței artificiale în actul medical, este încă nesoluționată. Potrivit acestuia, pacientul, de foarte multe ori, nu știe că este implicată inteligența artificială, iar dacă apare o problemă, situația devine complicată, mai ales când se descoperă că deciziile medicului au fost influențate de algoritmi, nu de propria sa judecată profesională.
„Sunt multe întrebări. Una dintre ele este aceasta, dar nu neapărat singura: în privința responsabilității, cine răspunde? Sau cum scapă de răspundere medicul, în condițiile în care utilizează în actul medical inteligența artificială? Este o întrebare bună.
Sunt, ca și în alte domenii medicale, două probleme: una este cea a moralei și eticii, iar cealaltă, cea a legalității. De obicei, ele sunt îngemănate. Din perspectiva legalității – pentru că de aici ar trebui să pornim – nu doar în cazul inteligenței artificiale, dar și în general, există o dereglementare în inteligența artificială. Prin urmare, problematica aceasta a responsabilității este, cel puțin din câte știu eu, încă nesoluționată. Se generează astfel un risc personal sau un risc al actului medical. (...)
„Medicul trebuie să-și asume cu responsabilitate algoritmii pe care îi folosește"
„Desigur, într-o astfel de situație, medicul va avea dificultăți în a se delimita de instrumentul pe care l-a folosit, sperând că instrumentul și algoritmii lui nu greșesc. Problema cea mai mare - mă refer la algoritmii de diagnostic, de exemplu, sau la cei care aduc după sine principii terapeutice - este că aceștia nu sunt neapărat eronați, dar pot fi construiți în asemenea fel încât să defavorizeze anumiți pacienți: pacienți de culoare, pacienți cu statut socioeconomic redus și care să beneficieze de opțiuni terapeutice pe care algoritmul le consideră potrivite pentru ei, și nu medicul.
Dacă medicul e conștient – și cel mai probabil el nu este conștient - de modul în care sunt construiți algoritmii, atunci, dacă este conștient, trebuie să-și asume cu responsabilitate algoritmii pe care îi folosește. Problema medicului este că, la rândul lui, nu cunoaște baza de specialitate care a stat la baza algoritmilor. Algoritmii aceștia sunt, poate, principala problemă în inteligența artificială complexă, cum ar fi diagnosticul sau tratamentul, pentru că, odată construiți, sunt foarte greu de corectat. Asta ne-au spus specialiștii din domeniu.
În plus, ei generalizează – pe asta se bazează funcționarea algoritmilor. Ori cazurile pe care le îngrijim și cu care ne întâlnim uneori sunt asemănătoare, probabil de cele mai multe ori, dar există și cazuri care nu sunt deloc asemănătoare, care sunt particulare, uneori chiar atipice. Acestea nu se potrivesc algoritmilor, ca urmare, inteligența artificială va eșua în fața lor sau îi va ignora", a spus prof. univ. dr. George Cristian Curcă la DC News și DC Medical.
Video: