A mesterséges intelligencia bevezetése óriási potenciállal járulhat hozzá az egészségügy fejlődéséhez a növekvő diagnosztikai pontosságtól, az elérhető legjobb terápiás eljárás kiválasztásán át, az egészségügyi ellátás kimeneti állapotának előrejelzéséig. Az integrált AI technológiák egészségügyi ellátásba való rutinszerű bevezetése egyfajta szociotechnikai kihívás, ami emberek és gépek szoros együttműködését igényli, és ami veszélyeket is hordoz magában.
Már rövid távon felléphetnek a problémák
Kockázatot jelenthetnek például a széles körben alkalmazott szoftverekben jelentkező hibák, amik nagyszámú beteg adatát érinthetik, csakúgy, mint azok az alárendelt adatokba rejtett feltételezések, amik az AI (artificial intelligence, AI) rendszerek téves predikcióihoz vezethetnek. Ahhoz, hogy az AI rendszerek a jövőben megbízható forrásként szolgáljanak az orvos és a beteg részére egyaránt, szükség van a bevezetéssel/használattal járó kockázatok minimalizálására.
Az AI egyik ágát, a gépi tanulást alapul véve rövid-, közép és hosszú távon különféle kockázatokkal kell számolni. Rövid távon elsősorban a gépi tanuláson nyugvó rendszer által hozott predikciók megbízhatóságának a kérdései merülnek fel; azaz kérdőjelekkel teli, hogy a „betanítás” során használt adatok relevánsak-e a mindennapi alkalmazás során felmerülő problémák vonatkozásában (azaz: megfelelőek voltak-e a betanításhoz használt adatok, adathalmazok). Közép távon már az jelenthet veszélyt, hogy az AI-t alkalmazók, túlságosan, „vakon” megbíznak a gépi tanuláson alapuló rendszerek működésében.
A gépi tanulás és az agy másként működnek?
Már az AI rendszerek tervezésének és fejlesztésének kezdeti fázisaiban szükséges számos kulcsfontosságú biztonsági faktor figyelembe vétele. Jelentős mértékben befolyásolhatja az AI biztonságosságát a követelmények és a célok egyértelmű definiálása, az adatgyűjtés és a szűrés módja, a modellek tesztelése és a felhasználóbarát interfész létrehozása.
Challen találóan fogalmaz egyik publikációjában, amikor megállapítja ezt, hogy az AI egyik ágának, a gépi tanulásnak a biztonságosságát érintő egyik legalapvetőbb kihívás annak a homályossága. A gépi tanulás algoritmusainak kimenetelei ugyanis mintázatok osztályozási rendszeréből állnak, amik alapján a „gép” következtetést fogalmaz meg. Egy diagnosztikai felvétel esetében a megtanult mintázatok alapján például eldönthető, hogy az adott kép egy malignus melanóma vagy pedig egy benignus anyajegy képét mutatja. A neurális hálózatok, amik az a predikcióknak az alapját képezik bizonyos szempontból „kifürkészhetetlenek”, hiszen a döntéshozó rendszerben a súlypontok megoszlását egy hálózaton helyezik el, nem pedig egy logikus utat követve, ami az emberi logika számára könnyebben megmagyarázható lenne.
Az AI tehermentesíti az orvosokat, de az ismeretanyaguk nem szabad, hogy emiatt hézagos legyen!
Az AI egészségügyi területen való térnyerése kapcsán fontos megemlíteni, hogy az AI mindennapokba való bevezetése célzott (szak)képzési stratégiák alkalmazását is igényli. Például: a szakorvosok (korábbi) gyakorlati szaktudását fenn kell tartani. Attól függetlenül, hogy a jövőben (mellettük/helyettük) az AI fog diagnosztizálni, vagy az AI fogja az adekvát gyógyszeres terápiát kiválasztani, nekik továbbra is birtokában kell lenni annak a képességnek, hogy szükség esetén bármikor képesek legyenek pontosan diagnosztizálni vagy a gyógyszeres terápiát meghatározni,- az AI működését ellenőrizni.
Megjegyzendő, hogy az AI alkalmazása nem csak az egészségügyben rizikós, hanem valamennyi egyéb szakterületen és ágazatban is az. Elegendő csak az Air France 447 repülőgép Atlanti-óceán fölötti 2009-es elvesztésére és katasztrófájára gondolni, amikor is a pilóták az automata vezérlés kikapcsolása után nem voltak képesek a helyzet manuális megoldására.
(Forrás: qualitysafety.bmj.com)