Nahradí brzy vašeho psychiatra umělá inteligence?

shutterstock_576208246.jpg

" Dobrý den pane. Posaďte se, prosím. Tak… jak se máš od posledně? Co když za pár let tuto neškodnou frázi už nepronese psychiatr z masa a kostí, ale umělá inteligence? s nedávné oživení psychiatrie ve veřejné diskusi, zejména kvůli zdravotní kriziZnovu se objevila myšlenka navrhnout systémy monitorování duševního zdraví integrující AI.

Je to, buďme upřímní, daleko od toho, aby to bylo nové, protože jsme našli první stopa chatbota (dialogového programu) věnovaného psychiatrii, jménem ELIZA, z roku 1966. V posledních desetiletích pokrok v umělé inteligenci umožnil vzestup chatbots, „roboterapeuti“ nebo jiní systémy detekce zdraví prostřednictvím hlasu.

Existuje dnes více než dvacet robotických terapeutů ověřené vědeckými studiemi v psychiatrii. Několik z těchto prací naznačuje, že pacienti by mohli rozvíjet skutečné terapeutické vztahy s těmito technologiemi, dokonce že někteří z nich by se dokonce cítili pohodlněji s chatbotem než s lidským psychiatrem.

Ambice jsou tedy vysoké... Zejména proto, že na rozdíl od svých lidských protějšků by tito digitální „profesionálové“ slibovali objektivní, opakovatelná a nesoudná rozhodnutí – a aby byli kdykoli k dispozici.

Dialogová stránka ELIZY s úryvkem z rozhovoru o příteli partnera robotického terapeuta
První dialogový software neboli chatbot je ELIZA, navržený v roce 1966 k simulaci psychoterapeuta.
DR

Je však třeba poznamenat, že zatímco název „roboterapeut“ evokuje představu fyzického robota, většinou se jedná o textová, případně animovaná videa. Kromě této nepřítomnosti fyzické přítomnosti, která je pro většinu pacientů důležitá, mnozí nedokážou rozpoznat všechny obtíže, se kterými se setkávají lidé, se kterými hovoří. Jak tedy poskytnout vhodné odpovědi, například doporučení specializovanému helpdesku?

Diagnostika a vnitřní model u psychiatra

Psychiatr při rozhovoru se svým pacientem dokáže vnímat důležité signály prozrazující existenci sebevražedných myšlenek či domácího násilí, které současným chatbotům může uniknout.

Proč psychiatr stále předčí svou elektronickou verzi? Když tento specialista oznámí „Máte poruchu pozornosti“ nebo „Vaše dcera má mentální anorexii“, proces, který ho vedl ke stanovení těchto diagnóz, závisí na jeho „vnitřním modelu“: a soubor duševních procesů, explicitních nebo implicitních, které mu umožňují stanovit diagnózu.

Stejně jakoinženýrství čerpá inspiraci z přírody při navrhování vysoce výkonných systémů, může být důležité analyzovat, co se děje v hlavě psychiatra (způsob, jakým navrhuje a používá svůj vnitřní model), když stanoví diagnózu, aby se pak lépe trénovala umělá inteligence, která má napodobovat… do jaké míry jsou si lidský „vnitřní model“ a model programu podobné?

To je to, na co jsme se sami sebe zeptali v našem článek nedávno publikovaný v časopise Hranice v psychiatrii.

Porovnání člověk-stroj

Spoléháním se na předchozí studie o diagnostickém uvažování v psychiatriijsme provedli srovnání mezi interním modelem psychiatra a modelem RN. Stanovení diagnózy prochází třemi hlavními fázemi:

Shromažďování informací a organizace. Psychiatr při rozhovoru s pacientem shromažďuje mnoho informací (z jeho zdravotní dokumentace, jeho chování, toho, co se říká atd.), které pak vybírá podle jejich relevance. Tyto informace pak mohou být spojeny s již existujícími profily s podobnými vlastnostmi.

Systémy AI dělají totéž: na základě dat, s nimiž byly trénovány, získávají charakteristiky z jejich výměny s pacientem. funkce), které vybírají a organizují podle své důležitosti (výběr funkcí). Mohou je pak seskupit do profilů a stanovit tak diagnózu.

Konstrukce modelu. Psychiatři během studia medicíny, následně po celou dobu své kariéry (klinická praxe, četba kazuistik atd.) formulují diagnózy, jejichž výsledek znají. Toto průběžné školení v jejich modelu posiluje souvislosti mezi rozhodnutími, která učiní, a jejich důsledky.

I zde jsou modely AI trénovány stejným způsobem: ať už během počátečního školení nebo učení, neustále ve svém interním modelu posilují vztahy mezi deskriptory extrahovanými z jejich databází a diagnostickými výsledky. Tyto databáze mohou být velmi rozsáhlé, dokonce mohou obsahovat více případů, než kolik lékař uvidí ve své kariéře.

Použití modelu. Na konci dvou předchozích etap je interní model psychiatra připraven k použití k převzetí nových pacientů. To, jak to udělá, mohou ovlivnit různé vnější faktory, jako je jeho plat nebo pracovní vytížení – které najdou své ekvivalenty v nákladech na vybavení a v době potřebné k výcviku nebo používání AI.

Jak již bylo naznačeno výše, je často lákavé si myslet, že psychiatr je ve své odborné praxi ovlivněn celou řadou subjektivních, kolísavých a nejistých faktorů: kvalitou jeho tréninku, jeho emočním rozpoložením, ranní kávou atd. A že AI, být „stroj“, by se všech těchto lidských vrtochů zbavila... To je chyba! Protože umělá inteligence zahrnuje také důležitou část subjektivity; je to prostě méně bezprostředně postřehnutelné.

[Téměř 70 000 čtenářů důvěřuje zpravodaji The Conversation, aby lépe porozuměl hlavním světovým problémům. Přihlaste se ještě dnes]

AI, opravdu neutrální a objektivní?

Ve skutečnosti byla veškerá AI navržena lidským inženýrem. Pokud tedy někdo chce porovnat myšlenkové pochody psychiatra (a tedy návrh a použití jejich vnitřního modelu) a AI, musí vzít v úvahu vliv kodéra, který jej vytvořil. To má svůj vlastní interní model, v tomto případě nesdružuje klinická data a diagnózu, ale typ AI a problém, který má být automatizován. A také tam se bere v úvahu mnoho technických možností, ale založených na člověku (který systém, který klasifikační algoritmus atd.)

Vnitřní model tohoto kodéra nutně ovlivňují stejné faktory jako u psychiatra: jeho zkušenosti, kvalita jeho školení, jeho plat, pracovní doba na psaní jeho kódu, jeho ranní káva atd. Vše ovlivní konstrukční parametry AI, a tedy nepřímo i rozhodování AI, tedy diagnózy, které provede.

Další subjektivitou, která ovlivňuje interní model AI, je subjektivita spojená s databázemi, na kterých je trénován. Tyto databáze jsou skutečně navrženy, shromažďovány a anotovány jednou nebo více dalšími lidmi s vlastní subjektivitou – subjektivitou, která bude hrát roli při výběru typů shromažďovaných dat, použitého materiálu, zvoleného opatření pro anotaci databáze atd.

Zatímco AI jsou prezentovány jako objektivní, ve skutečnosti reprodukují předsudky přítomné v databázích, na kterých jsou trénovány.

Syntetizující diagram, kde při stanovení diagnózy hrají subjektivní faktory: u shrinku, ale také u kodérů, inženýrů atd.
Subjektivita se vyskytuje nejen u lidského psychiatra, ale také u terapeutických AI prostřednictvím voleb provedených inženýry, kodéry atd., kteří je navrhli.
Vincent Martin, Autor poskytl

Hranice AI v psychiatrii

Z těchto srovnání vyplývá, že AI není osvobozena od subjektivních faktorů a zejména z tohoto důvodu není ještě připravena nahradit „skutečného“ psychiatra. Ten má další vztahové a empatické vlastnosti, aby přizpůsobil použití svého modelu realitě, se kterou se setkává... o což se AI stále snaží.

Psychiatr je tak schopen flexibility při shromažďování informací během svého klinického rozhovoru, což mu umožňuje přístup k velmi odlišným časovým informacím: může se například pacienta ptát na symptom, který se objevil týdny předtím, nebo vyvíjet jeho výměnu v reálném čase podle získané odpovědi. AI jsou v současné době omezeny na předem stanovený, a proto rigidní systém.

Dalším silným omezením AI je jejich nedostatek tělesnosti, což je faktor v psychiatrii velmi důležité. Každá klinická situace je totiž založena na setkání dvou lidí – a toto setkání zahrnuje řeč a neverbální komunikaci: gesta, polohu těl v prostoru, čtení emocí na obličeji nebo rozpoznávání neverbálních sociálních signálů. explicitní… Jinými slovy, fyzická přítomnost psychiatra tvoří důležitou součást vztahu mezi pacientem a pečovatelem, který sám o sobě tvoří důležitou součást péče.

Jakýkoli pokrok AI v této oblasti je závislý na pokroku v robotice, kde je v něm již ztělesněn vnitřní model psychiatra.

Znamená to, že bychom měli zapomenout na myšlenku virtuálního zmenšovače? Srovnání mezi úvahami psychiatra a AI je nicméně zajímavé z pohledu křížové pedagogiky. Dobré porozumění tomu, jak psychiatři uvažují, umožní lépe zohlednit faktory, které se podílejí na konstrukci a použití AI v klinické praxi. Toto srovnání také vrhá světlo na skutečnost, že kodér také přináší svůj díl subjektivity do algoritmů AI... které tak nejsou schopny dodržet sliby, které jim byly připisovány.

Pouze prostřednictvím tohoto druhu analýzy se v budoucnu bude moci vyvinout skutečná interdisciplinární praxe umožňující hybridizaci umělé inteligence a medicíny ve prospěch co největšího počtu lidí.

Vincent Martin, doktor informatiky, University of Bordeaux et Christopher Gauld, dětský psychiatr a spánkový lékař, Université Paris 1 Panthéon-Sorbonne

Tento článek je publikován z Konverzace pod licencí Creative Commons. Čístpůvodní článek.


Nejnovější články >

Souhrn novinek pro 28. září 2023

Ikona hodin s šedým obrysem

Nejnovější zprávy >