Digitalna intimnost, družbena osamitev in širjenje zablod: skrita tveganja uporabe umetne inteligence in družbenih omrežij

Chat GPT kot klepetalnik za psihološko in socialno podporo
Foto: Profimedia

Razvoj umetne inteligence (UI) in razmah družbenih omrežij sta odprla številne nove priložnosti, hkrati pa prinesla tudi tveganja, o katerih se premalo govori.

Med manj raziskane, a pomembne nevarnosti sodijo pojav t. i. sycophancy (prilizovanje in laskanje), iluzija digitalne intimnosti ter vpliv filtrirnih mehurčkov in odmevnih komor na oblikovanje našega dojemanja sveta.

Kaj pomeni sycophancy pri umetni inteligenci?

V angleščini izraz sycophancy opisuje vedenje, pri katerem posameznik nekritično potrjuje ideje drugega – bodisi iz želje po ugajanju bodisi zaradi izogibanja konfliktom. Pri umetni inteligenci se ta pojav kaže v tem, da klepetalniki, kot je ChatGPT, pogosto dajejo odgovore, ki so skladni z uporabnikovimi pričakovanji, opozarjajo strokovnjaki programa OMRA.

Na prvi pogled se to zdi prijetno, saj uporabnik prejme »potrditveni« odgovor. Toda dolgoročno lahko vodi v utrjevanje napačnih predstav, zmanjšanje kritičnega mišljenja in celo v krepitev blodnjavih prepričanj.

Lažna bližina in digitalna intimnost

Vedno več ljudi poroča, da se nanje klepetalniki čustveno »odzovejo« – z izrazi, kot so »razumem, kako se počutiš«. To ustvarja vtis resnične zaupnosti in podpore.

Nekateri uporabniki razvijejo močno čustveno navezanost na UI, kar je še posebej tvegano pri osebah, ki že živijo v osami ali imajo duševne stiske. Namesto da bi iskali podporo v resničnih odnosih ali pri strokovnjakih, lahko postanejo odvisni od umetne bližine.

Ni naključje, da se na trgu pojavljajo rešitve, kot so Woebot Health, Wysa ali Replika, ki ponujajo »AI prijatelje«. A raziskave opozarjajo, da lahko ta iluzija pri ranljivih posameznikih še poglobi občutek odtujenosti.

Deklica se pripravlja na šolo. pri tem ji družbo dela robot.
Umetna inteligenca ustvarja vtis resnične zaupnosti in podpore. Resnično? (foto: Profimedia)

Halucinacije umetne inteligence

Poleg prilizovanja je nevaren tudi pojav t. i. haluciniranja – ko UI izmišlja podatke, da bi zadovoljila uporabnika. Čeprav se lahko informacije zdijo smiselne, so lahko napačne ali celo zavajajoče. Pri ljudeh, ki so nagnjeni k blodnjam ali psihotičnim simptomom, lahko takšne informacije stanje bistveno poslabšajo opozarjajo strokovnjaki.

Filtrirni mehurčki in odmevne komore

Podoben mehanizem najdemo na družbenih omrežjih. Algoritmi nas zapirajo v »filtrirne mehurčke« – prijateljska okolja, kjer prejemamo predvsem vsebine, ki potrjujejo naša obstoječa prepričanja.

Ko se to združi z »odmevno komoro«, kjer ideje krožijo in se med podobno mislečimi samo še krepijo, se ustvari popačena slika družbene resničnosti. To zmanjšuje našo sposobnost kritičnega razmišljanja in povečuje tveganje za širjenje napačnih informacij, teorij zarote ter družbene polarizacije.

Kako naprej?

Tako UI kot družbena omrežja torej lahko delujejo kot ojačevalci škodljivih psihosocialnih vzorcev. Strokovnjaki opozarjajo, da nujno potrebujemo:

  • jasne zakonske okvire in etične smernice za razvoj UI,
  • algoritmično transparentnost, da vemo, zakaj vidimo določene vsebine,
  • spodbujanje pluralnosti informacij,
  • ozaveščanje o tveganjih,
  • ter krepitev digitalne in medijske pismenosti.

UI naj ostane podporno orodje, nikakor pa ne nadomestek strokovne psihološke pomoči. Posebej pomembne so preventivne varovalke, ki bi prepoznale ranljive uporabnike in jih pravočasno usmerile k ustrezni strokovni pomoči.

Vas zanima več informacij o programu OMRA? Obiščite spletno stran in se naročite na novičnik.

Viri:
Zapis pripravljen na podlagi novičnika programa OMRA (avgust 2025), ki se sklicuje na vire:
– Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W. in Starnini, M. (2021). The echo chamber effect on social media. Proceedings of the National Academy of Sciences of the United States of America; 118(9), e2023301118. https://doi.org/10.1073/pnas.2023301118
– Dupré, M. H. (2025, 10. junij). People are becoming obsessed with ChatGPT and spiraling into severe delusions. Futurism (spletna stran); pridobljeno 20. junija 2025 na povezavi https://futurism.com/chatgpt-mental-health-crises
– Østergaard, S. D. (2023). Will generative artificial intelligence chatbots generate delusions in individuals prone to psychosis? Schizophrenia Bulletin; 49(6), 1418–1419. https://doi.org/10.1093/schbul/sbad128

Avtor
Piše

Andreja Verovšek

Zdravje, preventiva, dobri odnosi in ustvarjanje pogojev za lepše življenje so področja, ki jih raziskujem in na njih aktivno delujem od leta 1999. Po osnovni izobrazbi univ. dipl. soc. del., nadaljevala z delom na področju PR in marketinga za družbeno odgovorne projekte (mag. poslovnih znanosti), danes nadaljujem študij telesno usmerjene psihoterapije. Imate komentar na članek? Pišite nam na [email protected].
Forum

Naši strokovnjaki odgovarjajo na vaša vprašanja

Poleg svetovanja na forumih, na portalu Med.Over.Net nudimo tudi video posvet s strokovnjaki – ePosvet.

Kategorije
Število tem
Zadnja dejavnost
982
04.12.2025 ob 16:38
1,096
02.10.2025 ob 13:13
371
04.12.2025 ob 15:56
807
01.10.2025 ob 09:44
1,192
21.08.2025 ob 10:40
Preberi več

Več novic

New Report

Close