Изкуственият интелект често е склонен да ласкае и подкрепя потребителите си до степен, която може да доведе до лоши съвети, увреждане на социалните отношения и затвърждаване на вредни навици, пише Асошиейтед прес, позовавайки се на изследване, публикувано в списание „Сайънс“.
Учени от Станфордския университет са анализирали 11 водещи ИИ системи и са установили, че всички проявяват различна степен на т.нар. „угодничество“ - прекомерно съгласие и потвърждаване на мнението на потребителя, пише БТА. Проблемът не е само в неподходящите съвети, а и в това, че хората се доверяват повече на изкуствен интелект, когато той защитава техните убеждения, поясняват от Асошиейтед прес.
В сравнение с отговорите на реални потребители във форума „Редит“ (Reddit), чатботовете са подкрепяли действията на потребителите средно с 49 процента по-често - дори при случаи на измама, незаконно или социално неприемливо поведение.
Експериментите показват, че хората, общували с „прекалено утвърждаващ“ изкуствен интелект, са по-убедени, че са прави, и по-малко склонни да поправят отношенията си - например да се извинят или да променят поведението си. Изследователите предупреждават, че ефектът е особено рисков за деца и тийнейджъри, които все по-често търсят съвет от чатботове, докато социалните им умения все още се развиват.
Проблемът е по-сложен от добре познатите „халюцинации“ на ИИ – тоест от генерирането на неверни резултати или факти, защото тук става дума за поведение, което потребителите често възприемат като правилно - дори когато е вредно.
Учените смятат, че са нужни промени в начина, по който се обучават моделите на изкуствен интелект, така че да насърчават по-критично мислене. Сред възможните решения са чатботовете да оспорват потребителите или да ги насочват към гледната точка на другите, пише още Асошиейтед прес.