Umetna inteligenca in psihoterapija
Umetna inteligenca (UI) vedno bolj pronica na razna delovna področja in ob tem marsikomu povzroča preglavice. Uporaba umetne inteligence si je svojo pot začela utirati tudi na področju psihoterapije. V literaturi se pojavljajo različna stališča: od ideje, da lahko UI v celoti nadomesti psihoterapevta, do prepričanja, da je lahko le podporno orodje, pa vse do mnenja, da v psihoterapijo sploh ne sodi. Članek osvetli prednosti, kot so večja dostopnost psihoterapije, takojšnja podpora in pomoč pri diagnostiki, a opozarja tudi na omejitve, kot so odsotnost pristne empatije, tveganje za razkritje ali zlorabo zasebnih podatkov, algoritmična pristranskost in vprašljiva dolgoročna učinkovitost.
Uvod
Potenciali umetne inteligence (UI) so se začeli koristiti v razne delovne namene, med drugim tudi na področju psihoterapije. Strokovnjaki v razpravah o vlogi umetne inteligence v psihoterapiji zavzemajo različna stališča, ki segajo od popolnega zavračanja njene prisotnosti v terapevtskem procesu do priznavanja potencialov podporne vloge. Nekateri verjamejo tudi, da bi lahko umetna inteligenca v celoti nadomestila človeškega psihoterapevta. Kako razumemo in definiramo umetno inteligenco je torej odvisno od tega, katero izmed teh različnih stališč zavzamemo. Splošno, ko govorimo o umetni inteligenci, ciljamo na zmožnost stroja, da natančno in hitro posnema človeško mišljenje. Sistemi, ki temeljijo na principu umetne inteligence, se za izvajanje nalog in sprejemanje odločitev učijo odkrivati vzorce iz velike količine podatkov oziroma se učijo iz izkušenj (Evropski svet, 2025). Sedlakova in Trachsel (2023) razločujeta med umetno inteligenco kot orodjem in kot subjektom (oz. agentom). Orodje umetne inteligence predstavlja programsko opremo, katere naloga je tehnična in omejena na izvajanje določenih funkcij, kot je na primer posredovanje informacij in znanja. V kontekstu psihologije se nanaša predvsem na vidik nudenja podpore psihoterapevtu. Konkretni primeri so na primer aplikacije, ki temeljijo na umetni inteligenci, ki snemajo in ustvarjajo transkripte terapevtskih srečanj, katere v osnovi izvaja tradicionalni (človeški) terapevt (Creed idr., 2021; Lee idr., 2025; Sadeh-Sharvit idr., 2023). Po drugi strani pa nekatere oblike umetne inteligence zaradi svoje zasnove posnemanja nekaterih človeških značilnosti, kot so čustvena inteligentnost ali sposobnost navezovanja stika, ustvarjajo vtis, da gre za subjekt. Tako lahko uporabniki zmotno verjamejo, da vzpostavljajo pristen terapevtski odnos, čeprav umetna inteligenca v resnici nima zavesti, namena ali etične odgovornosti (Sedlakova in Trachsel). V takih primerih govorimo o potencialu teh inovacij, da zamenjajo tradicionalno obliko psihoterapije, kot jo izvajamo danes, in s tem človeškega terapevta. Med primere sodijo platforme, aplikacije oz. klepetalniki, ki samostojno izvajajo terapevtske pogovore, kot so ELIZA, Woebot in Tess.
Trenutno ima kar eden od osmih ljudi na svetu duševno motnjo, pri čemer so najpogostejše depresivne in anksiozne motnje, katerih pojavnost se je zaradi pandemije COVID-19 še povečala. Čeprav obstajajo učinkoviti načini za preprečevanje in zdravljenje, večina ljudi še vedno nima dostopa do ustrezne podpore in pomoči. Zdravstveni sistemi so pri odzivanju na potrebe na področju duševnega zdravja še vedno opazno pomankljivo razviti (World Health Organization, 2022).
Na spletni strani Slovenske krovne zveze za psihoterapijo (SKZP, b.d.), slednjo definirajo kot: ”… posebna oblika medosebnega komuniciranja med dvema posameznikoma ali v okviru skupine, pri katerem se uporablja verbalne in neverbalne metode razumevanja in posredovanja. Psihoterapija uporablja posebne oblike znanja in spretnosti, ki temeljijo na razumevanju psihičnega zdravja in patologije in z njimi skuša vplivati na ljudi…” V članku bo večkrat uporabljena primerjava s ”tradicionalno” psihoterapijo, kot je opredeljena v zgornji definiciji.
Namen tega članka je predstaviti prednosti in omejitve uporabe umetne inteligence v psihoterapiji ter predstaviti trenutne zmožnosti in potencialni obseg uporabe v terapevtskem procesu. Zmožnosti in obseg uporabe se navezujejo na zgoraj predstavljena stališča (tj. 1. UI lahko popolnoma zamenja psihoterapevta; 2. UI ima lahko podporno vlogo v psihoterapiji in 3. UI ne sodi v psihoterapijo), ki predstavljajo središčna poglavja tega članka.
Umetna inteligenca lahko popolnoma zamenja psihoterapevta
Terapija, kot jo poznamo danes, ki zgleda tako, da je prisoten klient in na drugi strani človek, ki je psihoterapevt, se pogosto srečuje z izzivom dolgih čakalnih vrst ali cen terapije, ki si jih marsikdo ne zmore privoščiti. V razpravah o pozitivnih vidikih vključevanja umetne inteligence v psihoterapijo pogosto poudarjajo, da bi slednje omogočilo večjo dostopnost in ugodnost terapije, s tem pa tudi njeno večjo razširjenost (Fiske idr., 2019; Spytska, 2025; Vaidyam idr., 2019; Zhang in Wang, 2024). Uporaba aplikacije oz. klepetalnika, ki simulira terapevtski pogovor, omogoča tudi takojšnjo podporo, ki je uporabniku na voljo vedno in povsod (Alhuwaydi, 2024; Spytska, 2025). Obstoječi sistem nudenja psihoterapije omejuje, s koliko klienti se zmore psihoterapevt srečati v enem dnevu oz. koliko klientov ima lahko v obravnavi hkrati v določenem časovnem obdobju. Tem omejitvam se izognjeno sistemi, ki temeljijo na umetni inteligenci (Spytska, 2025; Zhang in Wang, 2024). Neka aplikacija lahko storitev hkrati nudi neomejenemu številu klientov, ne da bi to zmanjšalo kvaliteto obravnave (Sadeh-Sharvit idr., 2023; Zhang in Wang, 2024).
V članku avtorjev Zhang in Wang (2024) je izrisana taksonomija, kako točno naj bi se umetna inteligenca dotaknila dela na področju duševnega zdravja. Taksonomija razvršča štiri glavna področja: zmožnosti umetne inteligence, potencialne prednosti uporabe umetne inteligence, izzive in omejitve ter etične in praktične vidike. V sklopu zmožnosti umetne inteligence v psihoterapiji avtorja izpostavljajta sposobnosti prepoznavanja in obravnave čustev, izdelavo individualiziranih terapevtskih načrtov ter uporabo virtualnih terapevtskih platform. Konkreten primer je sistem DSS (orig. decision support systems), ki so ga razvili Tutun in kolegi (2023) in temelji na prepoznavi in obravnavi duševnih motenj. Zhang in Wang (2024) med potencialne prednosti uporabe poleg dostopnosti in razširljivosti uvrščata tudi večjo konsistentnost in nepristranskost v obravnavi, saj ne podleže utrujenosti ali razpoloženjskim nihanjem kot človeški terapevt. Uporabniki prav tako poročajo o večji odprtosti v komunikaciji z orodji umetne inteligence, saj ne pričakujejo obsojanja, kar omogoča bolj iskrene odgovore in boljše terapevtske izide. Po drugi strani sta avtorja izpostavila izzive in omejitve umetne inteligence, med katerimi so pomisleki glede dolgoročnega spomina, ki je pri trenutnih sistemih še vedno omejen. Nekatere raziskave celo navajajo problematiko integracije informacij skozi različne seanse (Zhang in Wang, 2024; Zhong idr., 2024a). Prav tako obstaja nevarnost algoritmičnih pristranskosti, saj se modeli umetne inteligence učijo iz podatkov, ki so lahko že sami po sebi pristranski (Alhuwaydi, 2024; Fiske idr., 2019; Gupta idr., 2022; Holohan in Fiske, 2021). Nekateri opozarjajo tudi na omejeno fleksibilnost umetne inteligence pri prilagajanju terapije (Li idr., 2023; Sedlakova in Trachsel, 2023) in vprašljivo dolgoročno učinkovitost, ki še ni dovolj raziskana (Lau idr., 2025; Zhong idr., 2024b). Etična vprašanja so sicer obsežen sklop, ki jih bom ponovno naslovila v poglavju Umetna inteligenca ne sodi v psihoterapijo, vendar Zhang in Wang (2024) v svoji taksonomiji navajata tudi vprašanje zasebnosti in varovanja podatkov klientov ter potrebe po človeškem nadzoru nad orodji umetne inteligence. Tudi Fiske in kolegi (2019) opozarjajo na potrebo jasnih standardov in smernic glede etičnih vprašanj varovanja podatkov v kontekstih uporabe umetne inteligence v namene duševnega zdravja. Prav tako umetna inteligenca ni zmožna vzpostaviti pristnega terapevtskega odnosa, ki temelji na empatiji in medosebni povezanosti – elementa, ki sta ključna za uspešnost psihoterapevtske obravnave. Terapevti imajo tudi sposobnost zaznavanja neverbalne komunikacije in intuitivnega odzivanja, česar umetna inteligenca trenutno ne more zanesljivo ponoviti (Sedlakova in Trachsel, 2023; Spytska, 2025; Zhang in Wang, 2024).
Učinkovitost umetne inteligence v psihoterapiji
Raziskovanje tega področja je v zadnjih letih precej zacvetelo, zato obstajajo že nekatere raziskave, ki naslavljajo učinkovitost konkretnih praks umetne inteligence v psihoterapiji. Zhong idr. (2024b) so v preglednem članku preverjali učinkovitost klepetalnikov pri klientih s simptomi depresije in/ali tesnobe. V pregledni članek je bilo vključeno 18 raziskav, skupaj 3477 udeležencev. Povzemajo, da je statistično značilno izboljšanje simptomov depresije in tesnobe večinoma prisotno po osmih tednih uporabe klepetalnika, vendar pomembnih učinkov po treh mesecih prenehanja uporabe ni bilo več mogoče zaznati. Podobno so v metaanalizi Laua in kolegov (2025), v kateri je bilo vključenih 31 randomiziranih študij z več kot 6000 udeleženci iz devetih držav, ugotovili pomembno zmanjšanje depresivnih simptomov takoj po intervenciji s srednje velikim učinkom in z malim učinkom 6 do 12 mescev po intervenciji. Ugotovili so tudi, da je bil učinek večji pri posameznikih z depresijo kot posameznikih z drugimi oblikami stisk (npr. stres, tesnoba). Letos je prav tako bila objavljena tudi raziskava (Spytska, 2025), kjer so preverjali učinkovitost klepetalnika Friend za zagotavljanje psihološke podpore med kriznimi situacijami, in sicer specifično pri ženskah na vojnih območjih. Vzorec 104 žensk so randomizirali v skupino, ki je uporabljala klepetalnik in drugo skupino, ki je bila deležna tradicionalne oblike terapije s človeškim terapevtom. Ugotovili so, da je klepetalnik pomembno zmanjšal ravni tesnobe, vendar je tradicionalna terapije dosegla pomembno večje zmanjšanje simptomov. Vendar avtorica izpostavlja tudi, da je vredno upoštevati, da so klepetalniki nudili dostopno in takojšnjo pomoč. Kljub temu je pomembno poudariti da je, kljub več raziskavam, ki pričajo o učinkovitosti, koncept uporabe UI v psihoterapiji še vedno nov, zato o dolgoročni učinkovitosti še ne moremo govoriti.
Umetna inteligenca ima lahko podporno vlogo v psihoterapiji
Predhodni zapis je osvetlil pomembne prednosti, ki jih prinaša uporaba umetne inteligence v psihoterapiji, vendar je zaradi omejitev vredno pretehtati vključitev umetne inteligence zgolj v obliki podpore terapevtskemu delu, ne pa kot nadomestek človeškega terapevta.
Trenutno obstaja ali je v razvoju že kar nekaj aplikacij oz. platform (npr. Eleos Health, Friend chatbot, Woebot health itd.), ki temeljijo na delovanju umetne inteligence in nosijo podporno vlogo v psihoterapiji. Te aplikacije prevzamejo predvsem administracijski vidik in sodelujejo pri izdelovanju osnutkov ali povzetkov srečanj, izdelovanju transkriptov, označevanju pomembnih delov transkripta ipd. Takšna aplikacija oz. platforma je lahko praktično koristna tako, da povzame in prepiše terapevtsko srečanje, terapevtom zagotovi povratne informacije o izvajanju in te podatke poveže z rutinskimi standardiziranimi vprašalniki, ki jih izpolnijo klienti. Uporabne so tudi pri pripravi poročila o napredku obravnave (Creed idr., 2022; Lee idr., 2025; Sadeh-Sharvit idr., 2023).
Konkreten primer platforme je Eleos Health, ki temelji na umetni inteligenci in je služila kot podporno orodje v ambulantni psihoterapiji. Raziskava Sadeh-Sharvit in sodelavcev (2023) je preučevala učinkovitost uporabe te platforme, katera je snemala, transkribirala in povzemala terapevtska srečanja, označevala uporabo dokazano učinkovitih terapevtskih metod (npr. tehnik kognitivno-vedenjske terapije) ter te podatke povezovala z rezultati rutinskih vprašalnikov, ki so jih izpolnjevali klienti. Poleg tega je terapevtom pomagala s pripravo osnutkov poročil o poteku terapije. Ugotovili so, da je uporaba platforme povečala udeležbo klientov na terapijah, izboljšala rezultate pri simptomih depresije in anksioznosti ter pospešila oddajo terapevtskih poročil. Simptomi depresije in anksioznosti so se v skupini, kjer so terapevti uporabljali platformo umetne inteligence, zmanjšali bistveno bolj kot v skupini s standardno obravnavo.
Poleg administracijskih nalog so takšna orodja koristna tudi pri usposabljanju novih terapevtov in superviziji. Raziskava Creeda in sodelavcev (2022) se je osredotočila na vprašanje, kako strokovnjaki za duševno zdravje doživljajo in vrednotijo uporabo umetne inteligence kot podpornega orodja pri superviziji v kognitivno-vedenjski terapiji (KVT). Izvedene so bile fokusne skupine, v katerih je sodelovalo 18 terapevtov in 12 kliničnih vodij (od tega 8 supervizorjev) iz različnih programov za duševno zdravje. Udeleženci so si ogledali predstavitveni video o orodju CORE-MI, nato pa razpravljali o možnosti uporabe orodja za potrebe supervizije v KVT. Ugotovili so, da strokovnjaki prepoznavajo velik potencial umetne inteligence za izboljšanje kakovosti supervizije, predvsem v smislu avtomatiziranega ocenjevanja uporabe terapevtskih metod in doslednega zagotavljanja povratnih informacij. Pravijo, da bi umetna inteligenca lahko terapevtom služila tudi kot učinkovito orodje za samorefleksijo, zlasti za začetnike, ter pripomogla k večji fleksibilnosti supervizijskega procesa. Poleg tega so udeleženci menili, da bi umetna inteligenca lahko označevala ključne trenutke terapij in izpostavila uspešne intervencije. Izraženi so bili tudi pomisleki glede varovanja zasebnih podatkov klientov in terapevtov, predvsem zaradi uporabe in analize posnetkov. Prav tako so opozorili na omejitve umetne inteligence pri zaznavanju subtilnih terapevtskih vidikov, kot so empatija, neverbalna komunikacija in kulturna občutljivost. Zaskrbljenost je bila izražena tudi glede pomanjkanja transparentnosti pri interpretaciji ocen in tveganja, da bi povratne informacije brez širšega kliničnega konteksta lahko bile zavajajoče. Sklepno so raziskovalci poudarili, da ima umetna inteligenca velik potencial kot dopolnilo obstoječim supervizijskim praksam, vendar mora biti njena uporaba premišljena in skrbno regulirana.
Eden izmed potencialov orodij umetne inteligence je tudi presejanje, zgodnja prepoznava in diagnostika duševnih motenj. Alhuwaydi (2024) prepoznava potencial umetne inteligence za izboljšanje diagnostike in zgodnjega odkrivanja duševnih stanj ter bolezni z analizo različnih virov podatkov. Ugotovitve Abd-Alrazaqa idr. (2022) kažejo, da lahko modeli umetne inteligence diagnosticirajo stanja, kot so kognitivne motnje, shizofrenija in bipolarne motnje, s stopnjo natančnosti, ki se giblje med 21 % in 100 %. Tudi slikanje možganov (MRI) je v kombinaciji z umetno inteligenco pokazalo visoko natančnost pri prepoznavanju duševnih bolezni, npr. približno 90 % točnost pri diagnosticiranju shizofrenije. Kljub obetavnim rezultatom pa ostajajo omejitve trenutnih modelov, kot so pomanjkanje zmožnosti za delo z obsežnimi in raznolikimi podatki (npr. z več spremenljivkami) ter tveganje algoritmične pristranskosti (Alhuwaydi, 2024). Prav tako je za uspešno uvedbo umetne inteligence v prakso nujna vzpostavitev zanesljivega ”zlatega” standarda diagnoze. V raziskavi Tutuna idr. (2023) navajajo, da sistemi in modeli za podporo pri odločanju pomagajo napovedovati težave z duševnim zdravjem in povečujejo učinkovitost kliničnega odločanja, pri čemer je bila v eni študiji dosežena 90 % natančnost pri diagnostiki duševnih motenj na osnovi le 28 vprašanj. Izpostavljajo tudi, da povečanje točnosti diagnoz, ki je lahko posledica natančno razvitih modelov (kot je že omenjen model DSS) pozitivno doprinese tudi k zmanjšanju stroškov, ki nastanejo zaradi napačnih ali nepotrebnih diagnoz in zdravljenj, hitrejši obravnavi pacientov ter posledično izboljšanju kakovosti njihovega življenja, obenem pa omogoča strokovnjakom za duševno zdravje, da učinkoviteje obravnavajo večje število pacientov in tako širšemu krogu ljudi omogočijo dostop do ustrezne pomoči.
Umetna inteligenca ne sodi v psihoterapijo
Med ključne značilnosti uspešne psihoterapije uvrščamo pristen človeški stik, ki nudi osnovo za terapevtsko delovno alianso. Gre za odnos med psihoterapevtom in klientom, ki je prepoznan kot bistveni dejavnik za uspešne izide psihoterapije. Povezuje se z empatijo, kongruentnostjo in brezpogojnim sprejemanjem. Med avtorji je doseženo soglasje, da temelji na sodelovalnem odnosu med klientom in terapevtom ter upošteva tako zmožnosti terapevta kot klienta za pogajanje o dogovoru terapije, tako glede ciljev kot glede poteka terapije (Flückiger idr., 2018; Horovath in Symonds, 1991). Teh umetna inteligenca nima in jih tudi ne more avtentično replicirati (Holohan in Fiske, 2021). Gre za sistem, ki temelji na algoritmih in statističnih analizah, ne pa na človeški intuiciji ali čustveni občutljivosti. Postavlja se vprašanje, ali lahko težave v odnosih, zaradi katerih posamezniki pogosto poiščejo terapevtsko pomoč, resnično rešujemo s pomočjo digitalnega orodja. Psihoterapija naj bi namreč nudila korektivno izkušnjo v odnosu, česar pa digitalno orodje ne more pristno posredovati. Rezultati študije Spytska (2025), ki sem jih predstavila v poglavju Učinkovitost umetne inteligence v psihoterapiji, poudarjajo pomen človeške prisotnosti v procesu zdravljenja in podpirajo tezo, da človeški terapevti nudijo raven čustvene podpore in prilagodljivosti, ki ju umetna inteligenca ne more doseči. Tudi v raziskavi Sedlakova in Trachsel (2023) je izpostavljeno, da so človeške značilnosti, kot sta empatija in zaupanje, ki sta ključni za terapevtsko učinkovitost, za umetno inteligenco težko pristno posnemljive.
Nasloviti je treba tudi pristnost odzivov. Ko umetna inteligenca v pogovoru izrazi stavek kot “To mora biti res težko zate”, to ni empatija, temveč programiran odziv. Slednje odpre novo etično vprašanje, ali je sprejemljivo, da nekaj zveni empatično, če to v resnici ni. Takšni odziv lahko uporabnika zavede in ustvari lažen občutek odnosa ali pripelje do parasocialnega odnosa. Parasocialni odnos je enostranski, psihološko intimen in dolgotrajen odnos, ki ga posameznik razvije z medijsko osebo (npr. influencerjem, zvezdnikom, likom v medijih ali celo umetno inteligenco), pri čemer oseba doživlja občutek povezanosti in bližine, čeprav dejanska interakcija ni vzajemna (Sheng idr., 2025). Razvoj parasocialnega odnosa s klepetalnimi roboti lahko vodi v več etičnih in praktičnih tveganj, kot so iluzije o vzajemnosti, neustrezno dodeljevanje nalog robotu in razkritje zaupnih informacij (Maeda in Quan-Haase, 2024). Uporabniki pogosto ne vedo, kaj so omejitve takih sistemov, zato lahko razvijejo nerealna pričakovanja, pa tudi čustveno navezanost, kar je lahko škodljivo (Vaidyam idr., 2019).
Kot omenjeno se pojavljajo resni etični pomisleki. Eden glavnih je vprašanje zasebnosti in varnosti. Sistemi umetne inteligence v kontekstu psihoterapije upravljajo z ogromno občutljivimi podatki, pri čemer ni jasno, kdo ima dostop do teh podatkov in kako so varovani (Fiske idr., 2019; Zhang in Wang, 2024). Velja tudi, da so ti sistemi pogosto neprilagodljivi, težko integrirajo informacije iz več terapij in nimajo dolgoročnega spomina – kar je v terapevtskem procesu ključno (Zhang in Wang, 2024; Zhong idr., 2024a). Ker se modeli učijo iz podatkov, ki so lahko že sami po sebi pristranski, so tudi zaključki lahko neveljavni. Zaskrbljujoče je tudi, da lahko v sklopu psihoedukacije širijo napačne oz. netočne informacije ali celo diskriminirajo glede na raso, spol ali socialni status (Fiske idr., 2019; Holohan in Fiske, 2021; Tutun idr., 2023). Po drugi strani pa govorimo o sistemih, ki bi se lahko nepričakovano pokvarili ali začeli delovati na nepredvidljive načine. Zaenkrat še ne obstajajo smernice ali formalna določila, ki bi usmerjala razvoj, integracijo in uporabo takšnih sistemov (Fiske idr., 2019).
Uporaba UI v psihoterapiji pri starejših starostnih skupinah še ni bila raziskana. Predpostavljam, da bi glede na trend slabše digitalne pismenosti ali nepismenosti, ki pogosto narašča s starostjo, takšen sistem starejše omejeval. Slednje podpira tezo, da umetna inteligenca ne more zamenjati človeških terapevtov, saj obstaja populacija, ki je ne zmore uporabljati.
Nenazadnje pa ni dokazov o dolgoročni učinkovitosti UI v terapiji, kot so ugotovile nekatere od že predstavljenih študij (Lau idr., 2025; Zhong idr., 2024b). Morda učinkuje pri kratkoročnem zmanjševanju simptomov, a brez razumevanja konteksta, odnosa in čustev očitno zaenkrat še ne more povsem in kvalitetno nadomestiti človeškega terapevta.
Zaključek
Umetna inteligenca predstavlja pomemben premik v paradigmi psihoterapevtskega dela, saj prinaša številne prednosti, vendar tudi številne izzive. Umetna inteligenca lahko pomembno izboljša dostopnost psihoterapevtskih storitev, podpre terapevtski proces s prepoznavanjem vzorcev, ustvarjanjem transkriptov in analizo podatkov ter služi kot dopolnilno orodje pri superviziji in diagnostiki. Po drugi strani pa ostajajo resni pomisleki glede omejene zmožnosti vzpostavljanja pristnega terapevtskega odnosa, varovanja zasebnosti podatkov, dolgoročne učinkovitosti in morebitnih algoritmičnih pristranskosti.
Čeprav umetna inteligenca že uspešno dopolnjuje delo terapevtov, ki se že poslužujejo nekaterih aplikacij, trenutne raziskave ne podpirajo povsem ideje, da bi lahko v celoti nadomestila človeškega terapevta. Psihoterapija je globoko zasidrana v kontekst pristnega človeškega stika, ki ga umetna inteligenca za zdaj ne more avtentično replicirati.
Med strokovnjaki za zdaj še ni soglasnega odgovora glede tega, ali umetna inteligenca v psihoterapiji predstavlja zgolj orodje, morebitnega nadomestka terapevta ali pa sploh ne sodi v terapevtski proces, kar je glede na kompleksnost in občutljivost tematike pričakovano. Pridružujem se stališču, da bi bilo prihodnost uporabe umetne inteligence v psihoterapiji najbolj smiselno usmeriti v podporno vlogo, kjer bo izboljševala učinkovitost in dostopnost terapevtskega dela, ne da bi pri tem nadomestila nenadomestljive človeške elemente. V tem kontekstu bo ključno, da razvoj in implementacijo teh orodij spremljajo stroga etična načela, transparentnost delovanja ter skrb za varovanje pravic in blagostanja klientov. V prihodnje je smiselno, da se strokovnjaki osredotočajo na oblikovanje etičnih in praktičnih smernic ter standardov, ki se naj upoštevajo pri oblikovanju in uporabi takih orodij.
Viri
Abd-Alrazaq, A., Alhuwail, D., Schneider, J., Toro, C. T., Ahmed, A., Alzubaidi, M., Alajlani, M. in Househ, M. (2022). The performance of artificial intelligence-driven technologies in diagnosing mental disorders: an umbrella review. NPJ digital medicine, 5(1), 87. https://doi.org/10.1038/s41746-022-00631-8
Alhuwaydi, A. (2024). Exploring the role of artificial intelligence in mental healthcare: Current trends and future directions – A narrative review for a comprehensive insight. Risk Management and Healthcare Policy, 17, 1339-1348. https://doi.org/10.2147/rmhp.s461562
Creed, T. A., Oziel, R., Reich, D., Thomas, M., O’Connor, S., Imel, Z. E., Hirsch, T., Narayanan, S. in Atkins, D. C. (2022). Knowledge and attitudes toward an artificial intelligence-based fidelity measurement in cognitive behavioral therapy supervision. Administration and policy in mental health, 49(3), 343–356. https://doi.org/10.31234/osf.io/r7sxu
Evropski svet. (5. 2. 2025). Kaj je umetna inteligenca: načini uporabe in vpliv. https://www.consilium.europa.eu/sl/policies/ai-explained/
Fiske, A., Henningsen, P. in Buyx, A. (2019). Your robot therapist will see you now: Ethical implications of embodied artificial intelligence in psychiatry, psychology, and psychotherapy. Journal of Medical Internet Research, 21(5), e13216. https://doi.org/10.2196/13216
Flückiger, C., Del Re, A. C., Wampold, B. E. in Horvath, A. O. (2018). The alliance in adult psychotherapy: A meta-analytic synthesis. Psychotherapy (Chicago, Ill.), 55(4), 316–340. https://doi.org/10.1037/pst0000172
Gupta, M., Parra, C. M. in Dennehy, D. (2022). Questioning Racial and Gender Bias in AI-based Recommendations: Do Espoused National Cultural Values Matter?. Information systems frontiers: a journal of research and innovation, 24(5), 1465–1481. https://doi.org/10.1007/s10796-021-10156-2
Holohan, M. in Fiske, A. (2021). “Like I’m talking to a real person”: Exploring the meaning of transference for the use and design of AI-based applications in psychotherapy. Frontiers in Psychology, 12, 720476. https://doi.org/10.3389/fpsyg.2021.720476
Horvath, A. O. in Symonds, B. D. (1991). Relation between working alliance and outcome in psychotherapy: A meta-analysis. Journal of Counseling Psychology, 38(2), 139–149. https://doi.org/10.1037/0022-0167.38.2.139
Lau, Y., Ang, W. H., Ang, W. W., Pang, P. C., Wong, S. H. in Chan, K. S. (2025). Artificial intelligence–based psychotherapeutic intervention on psychological outcomes: A meta‐analysis and meta‐regression. Depression and Anxiety, 2025(1). https://doi.org/10.1155/da/8930012
Lee, H., Lee, J., Yang, M., Lee, D., Song, H., Han, Y. in Han, J. (2025). Counselor-AI collaborative transcription and editing system for child counseling analysis. Proceedings of the 30th International Conference on Intelligent User Interfaces, 425-445. https://doi.org/10.1145/3708359.3712081
Li, H., Zhang, R., Lee, Y. C., Kraut, R. E. in Mohr, D. C. (2023). Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being. NPJ digital medicine, 6(1), 236. https://doi.org/10.1038/s41746-023-00979-5
Maeda, T. in Quan-Haase, A. (2024). When Human-AI interactions become Parasocial: Agency and anthropomorphism in affective design. The 2024 ACM Conference on Fairness, Accountability, and Transparency, 1068-1077. https://doi.org/10.1145/3630106.3658956
Sadeh-Sharvit, S., Del T. Camp, Horton, S. E., Hefner, J. D., Berry, J. M., Grossman, E. in Hollon, S. (2023). Effects of an artificial intelligence platform for behavioral interventions on depression and anxiety symptoms: Randomized clinical trial. Journal of medical Internet research, 25, e46781. https://doi.org/10.31234/osf.io/97pdj
Sedlakova, J. in Trachsel, M. (2023). Conversational artificial intelligence in psychotherapy: A new therapeutic tool or agent?. The American Journal of Bioethics, 23(5), 4-13. https://doi.org/10.1080/15265161.2022.2048739
Sheng, J., Kostyk, A. in Chatzipanagiotou, K. (2025). From Parasocial interaction to Parasocial relationship: A review and research agenda. International Journal of Consumer Studies, 49(2). https://doi.org/10.1111/ijcs.70038
SKZP. (b. d.). O psihoterapiji. https://www.skzp.si/o-psihoterapiji/
Spytska, L. (2025). The use of artificial intelligence in psychotherapy: Development of intelligent therapeutic systems. BMC Psychology, 13(1). 175. https://doi.org/10.1186/s40359-025-02491-9
Tutun, S., Johnson, M. E., Ahmed, A., Albizri, A., Irgil, S., Yesilkaya, I., Ucar, E. N., Sengun, T in Harfouche, A. (2023). An AI-based decision support system for predicting mental health disorders. Information Systems Frontiers, 25(3), 1261-1276. https://doi.org/10.1007/s10796-022-10282-5
Vaidyam, A. N., Wisniewski, H., Halamka, J. D., Kashavan, M. S. in Torous, J. B. (2019). Chatbots and conversational agents in mental health: A review of the psychiatric landscape. The Canadian Journal of Psychiatry, 64(7), 456-464. https://doi.org/10.1177/0706743719828977
World Health Organization (8. 7. 2022). Mental disorders. https://www.who.int/news-room/fact-sheets/detail/mental-disorders
Zhang, Z. in Wang, J. (2024). Can AI replace psychotherapists? Exploring the future of mental health care. Frontiers in Psychiatry, 5, 1444382. https://doi.org/10.3389/fpsyt.2024.1444382
Zhong, W., Guo, L., Gao, Q., Ye, H. in Wang, Y. (2024). MemoryBank: Enhancing large language models with long-term memory. Proceedings of the AAAI Conference on Artificial Intelligence, 38(17), 19724-19731. https://doi.org/10.1609/aaai.v38i17.29946
Zhong, W., Luo, J. in Zhang, H. (2024). The therapeutic effectiveness of artificial intelligence-based chatbots in alleviation of depressive and anxiety symptoms in short-course treatments: A systematic review and meta-analysis. Journal of Affective Disorders, 356, 459-469. https://doi.org/10.1016/j.jad.2024.04.057


