Med manj raziskane, a pomembne nevarnosti sodijo pojav t. i. sycophancy (prilizovanje in laskanje), iluzija digitalne intimnosti ter vpliv filtrirnih mehurčkov in odmevnih komor na oblikovanje našega dojemanja sveta.
Kaj pomeni sycophancy pri umetni inteligenci?
V angleščini izraz sycophancy opisuje vedenje, pri katerem posameznik nekritično potrjuje ideje drugega – bodisi iz želje po ugajanju bodisi zaradi izogibanja konfliktom. Pri umetni inteligenci se ta pojav kaže v tem, da klepetalniki, kot je ChatGPT, pogosto dajejo odgovore, ki so skladni z uporabnikovimi pričakovanji, opozarjajo strokovnjaki programa OMRA.
Na prvi pogled se to zdi prijetno, saj uporabnik prejme »potrditveni« odgovor. Toda dolgoročno lahko vodi v utrjevanje napačnih predstav, zmanjšanje kritičnega mišljenja in celo v krepitev blodnjavih prepričanj.
Lažna bližina in digitalna intimnost
Vedno več ljudi poroča, da se nanje klepetalniki čustveno »odzovejo« – z izrazi, kot so »razumem, kako se počutiš«. To ustvarja vtis resnične zaupnosti in podpore.
Nekateri uporabniki razvijejo močno čustveno navezanost na UI, kar je še posebej tvegano pri osebah, ki že živijo v osami ali imajo duševne stiske. Namesto da bi iskali podporo v resničnih odnosih ali pri strokovnjakih, lahko postanejo odvisni od umetne bližine.
Ni naključje, da se na trgu pojavljajo rešitve, kot so Woebot Health, Wysa ali Replika, ki ponujajo »AI prijatelje«. A raziskave opozarjajo, da lahko ta iluzija pri ranljivih posameznikih še poglobi občutek odtujenosti.

Halucinacije umetne inteligence
Poleg prilizovanja je nevaren tudi pojav t. i. haluciniranja – ko UI izmišlja podatke, da bi zadovoljila uporabnika. Čeprav se lahko informacije zdijo smiselne, so lahko napačne ali celo zavajajoče. Pri ljudeh, ki so nagnjeni k blodnjam ali psihotičnim simptomom, lahko takšne informacije stanje bistveno poslabšajo opozarjajo strokovnjaki.
Filtrirni mehurčki in odmevne komore
Podoben mehanizem najdemo na družbenih omrežjih. Algoritmi nas zapirajo v »filtrirne mehurčke« – prijateljska okolja, kjer prejemamo predvsem vsebine, ki potrjujejo naša obstoječa prepričanja.
Ko se to združi z »odmevno komoro«, kjer ideje krožijo in se med podobno mislečimi samo še krepijo, se ustvari popačena slika družbene resničnosti. To zmanjšuje našo sposobnost kritičnega razmišljanja in povečuje tveganje za širjenje napačnih informacij, teorij zarote ter družbene polarizacije.
Kako naprej?
Tako UI kot družbena omrežja torej lahko delujejo kot ojačevalci škodljivih psihosocialnih vzorcev. Strokovnjaki opozarjajo, da nujno potrebujemo:
- jasne zakonske okvire in etične smernice za razvoj UI,
- algoritmično transparentnost, da vemo, zakaj vidimo določene vsebine,
- spodbujanje pluralnosti informacij,
- ozaveščanje o tveganjih,
- ter krepitev digitalne in medijske pismenosti.
UI naj ostane podporno orodje, nikakor pa ne nadomestek strokovne psihološke pomoči. Posebej pomembne so preventivne varovalke, ki bi prepoznale ranljive uporabnike in jih pravočasno usmerile k ustrezni strokovni pomoči.
Vas zanima več informacij o programu OMRA? Obiščite spletno stran in se naročite na novičnik.
Viri:
Zapis pripravljen na podlagi novičnika programa OMRA (avgust 2025), ki se sklicuje na vire:
– Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W. in Starnini, M. (2021). The echo chamber effect on social media. Proceedings of the National Academy of Sciences of the United States of America; 118(9), e2023301118. https://doi.org/10.1073/pnas.2023301118
– Dupré, M. H. (2025, 10. junij). People are becoming obsessed with ChatGPT and spiraling into severe delusions. Futurism (spletna stran); pridobljeno 20. junija 2025 na povezavi https://futurism.com/chatgpt-mental-health-crises
– Østergaard, S. D. (2023). Will generative artificial intelligence chatbots generate delusions in individuals prone to psychosis? Schizophrenia Bulletin; 49(6), 1418–1419. https://doi.org/10.1093/schbul/sbad128



