https://c2p.cleverwebserver.com/dashboard/64072cc3-d637-11ea-a150-cabfa2a5a2de

Д-р Айзък Кохане, специалист по информационни технологии и медицина в Харвард, и двама негови колеги тестваха изкуствения интелект ChatGPT 4 в ролята на лекар. Резултатите са впечатляващи – чатботът се оказа по-добър от много лекари.

Пуснат през март тази година, AI ботът ChatGPT с езиков модел GPT-4 отговаря правилно на 90% от въпросите в медицинския лицензионен изпит. Той превъзхожда ChatGPT, базиран на езиковите модели GPT-3 и GPT-3.5, и дори някои лекари, които вече имат лицензи, отбелязва Insider.

Резултатите от експеримента са публикувани в книгата „Революцията на изкуствения интелект в медицината”, написана съвместно от д-р Кохане, независимия журналист Кери Голдбърг и вицепрезидента по изследвания в Microsoft – Питър Лий.

GPT-4 се представя отлично не само като проверяващ и фактолог, но и като преводач. Той сортира медицинското досие на пациента на португалски и перифразира натоварените с жаргон документи в текст, с който дори шестокласник може да се справи.

Изкуственият интелект предлага полезни съвети на лекарите как да се държат до леглото и как да говорят на пациента за състоянието му на ясен, но състрадателен език. Машината може да обработва обемни доклади от прегледи, като моментално обобщава съдържанието им.

Системата генерира отговорите си във формат, който показва интелигентност, близка до човешката, но изследователите все пак заключават, че AI е ограничен в мислите си от шаблони – GPT-4 все още не знае как да се впусне в пълноценно разсъждение с причинно-следствени връзки.

Когато обаче на системата са предложени данни от реален случай, тя диагностицира правилно рядко заболяване на ниво специалист, с години на обучение и практика.

Д-р Кохейн се радва, от една страна, че в обозримо бъдеще такъв инструмент ще бъде достъпен за милиони хора, но, от друга страна – той все още не знае как да направи платформата безопасна за потребителя.

GPT-4 не винаги е надежден в отговорите си и книгата дава много примери за различни по вид грешки. Освен това AI има склонност да настоява, че е прав, когато му се посочат тези грешки – това явление вече се нарича „халюцинации” в техническите среди.

В своя защита GPT-4 веднъж заявил: „Нямам намерение да заблуждавам или подвеждам някого, но понякога правя грешки и предположения въз основа на непълни или неточни данни. Не правя клинични преценки и нямам етична отговорност като лекар или медицинска сестра”.

Като една от мерките за защита, авторите на книгата предлагат да се проведат няколко сесии с GPT-4, така че самият AI да „препрочита” или „проверява” собствената си работа със „свеж поглед”. Това понякога помага за откриване на грешки: GPT-4 признава дискретно, че е сгрешил няколко пъти.

Разбира се, винаги работата на изкуствения интелект може да бъде проверено от медицински специалист.

Вижте още:

Защо Италия забрани ChatGPTЧатботът с изкуствен интелект ChatGPT продължава да внася смут и да предизвиква остри реакции както …Apr 5 2023skafeto.com

Ентусиаст пусна ChatGPT на 39-годишен IBM MS-DOS компютърПродължават чудноватите истории, свързани с изкуствения интелект ChatGPT. Разработчик на софтуер и е…Mar 28 2023skafeto.com

ChatGPT получава достъп до интернет и външни подобренияИзкуственият интелект ChatGPT придоби изключителна популярност за кратко време. Но AI ботът страда о…Mar 25 2023skafeto.com