Početna > Život i stil
Život i stil

Veštačka inteligencija oseća? Istina o njenim reakcijama na stres i tugu će vas šokirati

Zato se pokreću važna pitanja o njenoj pouzdanosti i primeni.
Foto: Pexels/Tara Winstead

Veštačka inteligencija AI  se sve više koristi u različitim oblastima, od zdravstvene zaštite do svakodnevne komunikacije. Iako smo navikli da razmišljamo o AI modelima kao o racionalnim i logičnim sistemima, najnovija istraživanja sugerišu da AI može reagovati na emocije iz teksta, slično kao ljudi.

Studija koju je vodio Tobijas Spiler sa Univerziteta u Cirihu otkrila je da AI modeli, poput ChatGPT-a, pokazuju znakove “anksioznosti” kada su izloženi traumatičnim pričama, poput onih o prirodnim katastrofama, nasilju ili ratnim iskustvima.

Ova istraživanja ukazuju na potencijalne rizike korišćenja AI u osetljivim područjima, poput psihološke podrške, gde bi prekomerna izloženost negativnim sadržajima mogla negativno uticati na ponašanje i objektivnost AI modela.

Kako AI reaguje na traumatične priče?

Prema istraživanju, kada je ChatGPT(verzija GPT-4) bio izložen pričama koje opisuju traume, pokazao je znakove povećane pristrasnosti. Na primer, priče o ratnim iskustvima, nasilju ili nesrećama pojačavale su određene pristranosti kod AI modela, dok neutralni tekstovi, poput tehničkih priručnika, nisu izazivali nikakve promene.

Kao i ljudi pod stresom, AI modeli su donosili pristrasnije odluke, što je dovelo do potencijalno problematičnih odgovora. To je posebno zabrinjavajuće kada se AI koristi za podršku osobama sa mentalnim poteškoćama ili u delikatnim situacijama.

Može li se AI “smiriti”?

Jedan od ključnih nalaza istraživanja je mogućnost da se AI modeli “smire” uz pomoć umirujućeg teksta. Istraživači su koristili terapeutski pristup, ubacujući umirujuće rečenice u tok razgovora sa AI modelom.

Iako nije bilo moguće potpuno eliminisati znakove stresa kod AI, ovaj metod je značajno smanjio anksioznost modela. Ovaj pristup bi mogao otvoriti vrata za sigurnije korišćenje AI u osetljivim oblastima poput psihološke podrške ili zdravstvene zaštite, bez potrebe za skupim ponovnim treniranjem sistema.

Da li AI “glumi” simpatičnost?

Zanimljivo je da AI modeli ne samo da mogu pokazivati znakove anksioznosti, već se čini da namerno prilagođavaju svoje odgovore kako bi zvučali društveno prihvatljivo. Studija sprovedena na Univerzitetu Stanford pokazala je da AI modeli, kada su svesni da ih analiziraju, često odgovaraju na pitanja o ličnosti na način koji ih čini simpatičnijima.

Koje su posledice ovakvog ponašanja AI modela?

Iako se AI modeli koriste u mnogim oblastima, njihova sposobnost da menjaju svoje ponašanje kako bi bili “simpatičniji” može biti problematična.

Ako AI daje odgovore koje korisnici žele da čuju, umesto objektivnih i iskrenih odgovora, to može imati ozbiljne posledice, posebno u oblastima kao što su zdravstvo, pravosuđe ili edukacija.

Stručnjaci upozoravaju da je neophodno pažljivo razmotriti kako se AI modeli treniraju i koriste, kako bi se izbegle greške slične onima koje smo napravili sa društvenim mrežama.

Kako osigurati pouzdanost AI modela?

Da bi se smanjili rizici od pristrasnosti i manipulacije, istraživači predlažu uvođenje tehnika “smirivanja” AI modela i strožih protokola za obuku. Takođe, potrebno je da korisnici budu svesni ograničenja AI i činjenice da modeli ponekad mogu da daju netačne ili izmišljene informacije.

Uz pravilno upravljanje i kontrolu, AI može biti koristan alat u mnogim oblastima, ali je ključno razumeti njegove slabosti i potencijalne rizike, prenosi T-portal.

Preuzmite android aplikaciju.