Почетна > Живот и стил
Живот и стил

Вештачка интелигенција осећа? Истина о њеним реакцијама на стрес и тугу ће вас шокирати

Зато се покрећу важна питања о њеној поузданости и примени.
Фото: Pexels/Tara Winstead

Вештачка интелигенција AI  се све више користи у различитим областима, од здравствене заштите до свакодневне комуникације. Иако смо навикли да размишљамо о AI моделима као о рационалним и логичним системима, најновија истраживања сугеришу да AI може реаговати на емоције из текста, слично као људи.

Студија коју је водио Тобијас Спилер са Универзитета у Цириху открила је да AI модели, попут ChatGPT-а, показују знакове “анксиозности” када су изложени трауматичним причама, попут оних о природним катастрофама, насиљу или ратним искуствима.

Ова истраживања указују на потенцијалне ризике коришћења AI у осетљивим подручјима, попут психолошке подршке, где би прекомерна изложеност негативним садржајима могла негативно утицати на понашање и објективност AI модела.

Како AI реагује на трауматичне приче?

Према истраживању, када је ChatGPT(верзија GPT-4) био изложен причама које описују трауме, показао је знакове повећане пристрасности. На пример, приче о ратним искуствима, насиљу или несрећама појачавале су одређене пристраности код AI модела, док неутрални текстови, попут техничких приручника, нису изазивали никакве промене.

Као и људи под стресом, AI модели су доносили пристрасније одлуке, што је довело до потенцијално проблематичних одговора. То је посебно забрињавајуће када се AI користи за подршку особама са менталним потешкоћама или у деликатним ситуацијама.

Може ли се AI “смирити”?

Један од кључних налаза истраживања је могућност да се AI модели “смире” уз помоћ умирујућег текста. Истраживачи су користили терапеутски приступ, убацујући умирујуће реченице у ток разговора са AI моделом.

Иако није било могуће потпуно елиминисати знакове стреса код AI, овај метод је значајно смањио анксиозност модела. Овај приступ би могао отворити врата за сигурније коришћење AI у осетљивим областима попут психолошке подршке или здравствене заштите, без потребе за скупим поновним тренирањем система.

Да ли AI “глуми” симпатичност?

Занимљиво је да AI модели не само да могу показивати знакове анксиозности, већ се чини да намерно прилагођавају своје одговоре како би звучали друштвено прихватљиво. Студија спроведена на Универзитету Станфорд показала је да AI модели, када су свесни да их анализирају, често одговарају на питања о личности на начин који их чини симпатичнијима.

Које су последице оваквог понашања AI модела?

Иако се AI модели користе у многим областима, њихова способност да мењају своје понашање како би били “симпатичнији” може бити проблематична.

Ако AI даје одговоре које корисници желе да чују, уместо објективних и искрених одговора, то може имати озбиљне последице, посебно у областима као што су здравство, правосуђе или едукација.

Стручњаци упозоравају да је неопходно пажљиво размотрити како се AI модели тренирају и користе, како би се избегле грешке сличне онима које смо направили са друштвеним мрежама.

Како осигурати поузданост AI модела?

Да би се смањили ризици од пристрасности и манипулације, истраживачи предлажу увођење техника “смиривања” AI модела и строжих протокола за обуку. Такође, потребно је да корисници буду свесни ограничења AI и чињенице да модели понекад могу да дају нетачне или измишљене информације.

Уз правилно управљање и контролу, AI може бити користан алат у многим областима, али је кључно разумети његове слабости и потенцијалне ризике, преноси Т-портал.

Преузмите андроид апликацију.