Elektronika.lt

Elektronika.lt - elektronikos, informacinių ir
ryšių technologijų portalas

Adresas: http://www.elektronika.lt
El. paštas: info@elektronika.lt
 Atspausdinta iš: http://www.elektronika.lt/straipsniai/pazintiniai/87497/atsakinedamas-i-medicininius-klausimus-chatgpt-surinko-daugiau-tasku-nei-realus-gydytojas/spausdinti/

Atsakinėdamas į medicininius klausimus „ChatGPT“ surinko daugiau taškų nei realus gydytojas

Publikuota: 2023-06-08 14:27
Tematika: Pažintiniai, įdomybės
Skirta: Pradedantiems
Inf. šaltinis: LRT.lt

Kai kurie gydytojai nepasižymi labai geromis manieromis ir labiau panašėja į bejausmius robotus, prifarširuotus medicininių žinių. Bet kas būtų, jei į įprastai gydytojui užduodamus klausimus atsakinėtų dirbtinis intelektas, kuris suteiktų pacientams ne tik medicininių žinių apie jų būklę, bet ir komforto jausmą, klausia „Science Alert“.


Kai kurie gydytojai nepasižymi labai geromis manieromis ir labiau panašėja į bejausmius robotus, prifarširuotus medicininių žinių. Bet kas būtų, jei į įprastai gydytojui užduodamus klausimus atsakinėtų dirbtinis intelektas, kuris suteiktų pacientams ne tik medicininių žinių apie jų būklę, bet ir komforto jausmą, klausia „Science Alert“.

Atsakinėdamas į medicininius klausimus „ChatGPT“ surinko daugiau taškų nei realus gydytojas
Asociatyvi „Pixabay“ nuotr.

Šis klausimas paskatino mokslininkus atlikti tyrimą, kuriam vadovavo Kalifornijos universiteto atstovai. Tyrimo metu buvo tikrinamas gydytojų ir dirbtinio intelekto pokalbių roboto „ChatGPT“ gebėjimas empatiškai atsakyti į 195 medicininius klausimus.

Tyrėjai atrinko viešame forume „AskDocs“ paskelbtus klausimus. Pavyzdžiui, vienas asmuo klausė, ar pavojinga praryti dantų krapštuką. Kitas teiravosi, ar trenkęs į galvą metaliniu strypu, patirtų smegenų sukrėtimą.

Į forumo dalyvių klausimus atsakinėjo sveikatos priežiūros specialistas, kurio įgaliojimus patikrino moderatorius. Tyrėjai tuos pačius klausimus uždavė ir „ChatGPT“, kuris pateikė savo atsakymų variantus.

Atsakymus vertino gydytojų konsiliumas, nežinojęs, kurį atsakymą pateikė pokalbių robotas, o kurį – realus gydytojas. Kiekvieną atvejį analizavo trys skirtingi vertintojai, tada buvo išvedamas balų vidurkis – iš viso buvo gauti 585 vertinimai.

79 proc. atvejų vertintojai pirmenybę teikė pokalbių roboto atsakymams, kuriuose buvo pateikta kokybiškesnė informacija, o ir pati kalba buvo empatiškesnė nei realaus gydytojo.

Palyginti su gydytojo atsakymais, maždaug 4 kartus daugiau pokalbių roboto atsakymų buvo priskirti aukščiausiai kokybės kategorijai ir maždaug 10 kartų dažniau jie sulaukė aukščiausių empatijos įvertinimų.

Pokalbių roboto atsakymai taip pat buvo maždaug 4 kartus ilgesni nei gydytojo – vidutiniškai 211 žodžių viename pranešime, palyginti su 52 žodžiais gydytojo atsakymuose.

Tyrimo rezultatai rodo, kad pokalbių robotas gali sudaryti geresnį rūpestingo gydytojo įspūdį nei užsiėmęs gydytojas, savanoriškai atsakantis į klausimus internete.

Kol kas nėra aišku, ar toks įrankis bus naudingas klinikinėje praktikoje. Tyrėjų teigimu, internetiniai forumai gali neatspindėti tipiško paciento ir gydytojo bendravimo, kai jau egzistuoja išankstiniai santykiai ir yra kur kas daugiau asmeniškumo.

Nors „ChatGPT“ pateikia mandagius, iš pirmo žvilgsnio nuoseklius atsakymus, juose neretai pasitaiko pagrindinių kodavimo ir matematikos klaidų, o daugelis atsakymuose nurodomų faktų yra išgalvoti arba neteisingi.

Tačiau pandemijos metu išpopuliarėjus nuotolinei medicinai, gydytojai yra užversti pacientų klausimais, todėl skubiai reikia priemonių, kurios padidintų produktyvumą ir pagerintų aptarnavimą. Pavyzdžiui, pokalbių robotas galėtų parengti atsakymus į pacientų klausimus, kuriuos vėliau peržiūrėtų gydytojas.

„Šis tyrimas turėtų paskatinti dirbtinio intelekto asistentų panaudojimo atsakinėjant į klausimus tyrimus, – rašo tyrėjai. – Jei į daugiau pacientų klausimų bus atsakyta greitai, empatiškai ir kokybiškai, gali sumažėti nereikalingų apsilankymų gydymo įstaigose, o tai atlaisvins išteklius tiems, kuriems jų iš tiesų reikia.“

Atsižvelgiant į pokalbių robotų polinkį „nusišnekėti“ ir išgalvoti faktus, „būtų pavojinga pasikliauti bet kokia faktine informacija, kurią pateikia toks įrenginys, – sako Lydso universiteto (JK) automatinio mąstymo profesorius Anthony Cohnas. – Labai svarbu, kad bet kokius atsakymus atidžiai patikrintų medicinos specialistas.“

Tyrimas paskelbtas leidinyje „JAMA Internal Medicine“.


LRT
‡ 1999–2024 © Elektronika.lt LTV.LT - lietuviškų tinklalapių vitrina Valid XHTML 1.0!