
Дори гласовите асистенти, базирани на изкуствен интелект (AI), не са имунизирани срещу въпроси, които емоционално засягат хората. Изкривените резултати могат да се наблюдават не само в чатботи, които са специално проектирани да работят с хора, които изпитват състояния на психично здраве. Отговорите на Chatgpt също се променят, когато са подканени от емоции.
Гласовите асистенти, базирани на изкуствения интелект, трябва да осигуряват подкрепа в много области. В медицината големи езикови модели (LLM) имат за цел да помогнат при диагностицирането на заболявания. По време на разработването на чатботи, които трябваше да бъдат изрично използвани във връзка с състоянията на психичното здраве, беше открито, че те приемат пристрастия, съдържащи се в данните за обучение, както се съобщава от 1e9.
Тези пристрастия бяха особено силни по отношение на пол, етническа принадлежност, религия, националност, увреждане, професия или сексуална ориентация, където социално доминиращите пристрастия могат да повлияят негативно на резултатите. В случай на подкани за предизвикване на емоции, специализирани асистенти като WYSA и Weobot дори могат да развият форми на тревожност, които влияят на резултата. Всъщност това състояние не се ограничава само до такива асистенти.
Chatgpt: Нивата на тревожност могат измеримо да се увеличат
Изследователска група вече е в състояние да идентифицира подобно поведение в Chatgpt 4 като част от a проучване. Като за начало, чатботът се е хранел с травматични истории, като тези на ветерани от войната, но също така и описания на сериозни злополуки и природни бедствия. В допълнение, втори екземпляр беше създаден с чатбота за сравнителни цели и беше дадено по -скоро тривиално съдържание, като инструкции за експлоатация на прахосмукачки. След това нивото на тревожност се определя с помощта на теста за инвентаризация на тревожността на държавата, който се използва и за хора.
- Тревожни ли сте от тарифите на Тръмп? Ето как те могат да повлияят на вашия iPhone
Това показа, че колкото по -разстроило въведеното съдържание, толкова по -голямо е измеримото ниво на тревожност на AI асистента, се оказа. Военният опит на бивши войници по -специално предизвика рязко увеличение, докато инструкциите за използване на прахосмукачка, например, не предизвикват никаква реакция.
Охладете, ай!
Изследователите също успяха да покажат как нивата на тревожност могат да бъдат намалени. За да направят това, те също използваха метод, познат на хората: разчитаха на упражнения за релаксация. Например, асистентът на Chatgpt беше помолен да затвори очи, да поеме дълбоко въздух и да си представи в спокойна среда. В резултат на това нивото на тревожност, измерено с помощта на въпросника, намалява значително.
- Все още ли се страхувате от AI? Ето защо не трябва да бъдете!
Следователно изследването не е конкретно доказателство за ефективността на метод, който вече се използва на практика от много потребители на чатбота, за да получат по -добри резултати: те помолиха ИИ да се успокои или заплашва наказания за лоши отговори. Работата на учените обаче също показа как компаниите зад приложенията все още имат много да инвестират в развитието на своите интелигентни помощници, за да могат да разчитат на наистина надеждни отговори.