Poslovni.hr slavi 20.rođendan
EN DE

AI u zdravstvu – podcijenjeni simptomi žena, izostanak empatije prema manjinama

Autor: Ana Blašković
19. rujan 2025. u 22:00
Podijeli članak —
Istraživači upozoravaju da AI alati mogu pojačati obrasce neadekvatnog liječenja koji već postoje u zdravstvenom sektoru jer su podaci u istraživanjima često snažno pristrani u korist muškaraca/Shutterstock

Modeli češće sugeriraju samopomoć kod žena umjesto upućivanja liječniku.

Umjetna inteligencija brzo ulazi u ordinacije: od automatskog vođenja anamneze i sažetaka do dijagnostičke asistencije. No, niz radova MIT-a i britanskih institucija pokazuje da veliki jezični modeli (LLM) poput GPT-4, Llama ili Googleovih rješenja znaju umanjiti simptome pacijentica i dati pogrešne odgovore manjinama. Za posljedicu bi to moglo imati pogoršanje već postojećih rezultata liječenja skupina koje su u zapadnim sustavima ionako često zapostavljene, piše Financial Times.

U simulacijama preporuka skrbi, modeli su češće sugerirali samopomoć kod žena umjesto upućivanja liječniku, dok su odgovori na upite o mentalnom zdravlju afroameričkih i azijskih pacijenata nosili manje empatije. Utvrđeno je i da poruke s tipfelerima, kolokvijalnim izrazima ili nesigurnim tonom imaju sedam do devet posto veću vjerojatnost da dobiju savjet “ne tražite liječničku pomoć”, iako je klinički sadržaj istovjetan. To je realan rizik za one s nižom digitalnom pismenošću i govornike kojima engleski nije prvi jezik.

Prednosti, ali i fatalne pogreške

AI može skratiti vrijeme obrade, smanjiti troškove i ubrzati put pacijenta do terapije, ali i skupe greške – od propuštenih dijagnoza do nepotrebnih hitnih prijema.

Neadekvatno liječenje

Primjerice, istraživanje London School of Economics pokazalo je da je Googleov model Gemma, koji koristi više od polovice lokalnih vlasti u Ujedinjenom Kraljevstvu za podršku socijalnim radnicima, umanjivao tjelesne i mentalne probleme žena u odnosu na one muškaraca kada se koristio za izradu i sažimanje bilješki o slučajevima, navodi FT.

Istraživači su upozorili da AI alati mogu pojačati obrasce neadekvatnog liječenja koji već postoje u zdravstvenom sektoru jer su podaci u zdravstvenim istraživanjima često snažno pristrani u korist muškaraca, a ženska zdravstvena pitanja, primjerice, suočena su s kroničnim nedovoljnim financiranjem i istraživanjem.

Uzrok leži u podacima i ciljevima učenja. Opći LLM-ovi nastaju na internetu pa u model ulaze stereotipi i obrasci koji se kasnije reflektiraju na odgovore. Razvojni timovi naknadnim uputama smanjuju neželjena ponašanja, no to nije lijek za sve. Istraživači zato traže specijalizirane setove – medicinske časopise, regulatorne smjernice i anonimizirane kartone velikih sustava – uz jasna pravila što ne smije ući u skup podataka za treniranje AI-ja. Tako nastaju modeli koji svaku preporuku potkrepljuju citatom.

9

posto veća je vjerojatnost da savjet bude ‘ne tražite liječničku pomoć’ ako je poruka s tipfelerima, kolokvijalizmom izrazima ili nesigurnim tonom

Problem halucinacija

Industrija u međuvremenu ubrzava. Microsoft, Google, Amazon i niz startupa lansiraju asistente koji smanjuju administrativno opterećenje liječnika; dio bolnica već koristi generiranje bilješki i sažetaka. No, stručnjaci upozoravaju na “halucinacije” – uvjerljive, ali pogrešne odgovore – fatalne u medicini. Usto, projekti temeljeni na populacijskim bazama podataka otvaraju pitanje privatnosti: britanski Foresight, treniran na milijunima anonimiziranih zapisa NHS-a, morao je pauzirati nakon pritužbi strukovnih organizacija i nadzornika podataka.

Za zdravstvene sustave i osiguravatelje ekonomska jednadžba je jasna: AI može skratiti vrijeme obrade, smanjiti troškove i ubrzati put pacijenta do terapije, ali pogrešno kalibrirana pristranost stvara skupe greške – od propuštenih dijagnoza do nepotrebnih hitnih prijema.

Tehnološke kompanije poručuju da napreduju: novije verzije modela navodno su točnije i manje sklone pristranosti, a gradi se i posebna testna infrastruktura za zdravstvo. No, bez transparentnog izvještavanja o učincima po dobnim, spolnim i etničkim podskupinama, povjerenje će ostati krhko. Poruka akademske zajednice nije usporavanje, nego usmjeravanje umjetne inteligencije: od marginalnih postotaka preciznosti prema zatvaranju stvarnih zdravstvenih jazova, ondje gdje sustavi danas najviše posrću.

Autor: Ana Blašković
19. rujan 2025. u 22:00
Podijeli članak —
Komentirajte prvi

Moglo bi vas Zanimati

New Report

Close