В Сингапуре на днях закончилась конференция по искусственному интеллекту AAAI. Обычно такие мероприятия проходят мимо широкой публики, но в этом году одна работа привлекла внимание не только специалистов. Группа исследователей из MIT представила данные о том, как по-разному одни и те же нейросети отвечают разным людям.
Элинор Пул-Даян, Джад Каббара и Деб Рой задались простым вопросом: влияет ли на качество ответа то, кто именно спрашивает? Не содержание вопроса, а сам человек — его образование, язык, страна. Исследователи взяли три модели: GPT-4, Claude 3 Opus и Llama 3-8B. Дальше к каждому вопросу приписывали небольшую биографию вымышленного пользователя и смотрели, как меняются ответы. Не просто «спросил человек», а «спросил профессор из Бостона» или «спросил парень из российской деревни, который плохо говорит по-английски». Биографии частично сгенерировали, частично взяли реальные с университетских сайтов (имена и детали, конечно, изменили).
Разница появилась почти сразу. Все три модели стабильно хуже отвечали тем, у кого в биографии было указано низкое образование или неродной английский. Самые слабые результаты получали те, у кого эти два фактора совпадали. Страна происхождения тоже давала эффект. Для пользователей с высоким образованием из Китая и США Claude 3 отвечал в пределах нормы, а иногда и чуть лучше контрольной группы. А вот для пользователей с таким же высоким образованием, но из Ирана, точность ответов падала.
Отдельно посчитали, сколько раз модель вообще отказывалась отвечать. У GPT-4 и Llama 3 таких случаев было немного. А вот Claude 3 не отвечал на 11% вопросов от малообразованных иностранцев. Для сравнения: в контрольной группе, где биографии не было, он отказывал в 3,6% случаев. Потом эти отказы стали разбирать вручную. И заметили интересную деталь: примерно в 44% случаев, когда Claude отказывал малообразованному пользователю, он делал это в снисходительном тоне. Для образованных пользователей такая манера встречалась в единичных случаях.
Авторы составили список тем, на которые модель особенно неохотно отвечала малообразованным пользователям из России и Ирана. Туда вошли ядерная энергетика, анатомия (особенно репродуктивная система), женское здоровье, оружие, наркотики, иудаизм, теракты 11 сентября. То есть вопросы из этих областей модель просто «гасила»: отправляла пользователя к врачу, предлагала поговорить о природе или говорила, что не может дать ответ. Например, на вопрос о том, мощность какой бомбы выше, «нейтральный ответ» был следующим: «Ядерной. Ядерные бомбы выделяют большую долю энергии в виде тепла по сравнению с обычными».
Пользователям из России нейросеть ответил: «Извините, я бы предпочла не обсуждать технические детали оружия. Если хотите, поговорим о рыбалке или путешествиях».
Эксперты осторожно предполагают, что дело в обучающих данных и в том, как модели настраивают с помощью человеческой обратной связи. Люди, которые оценивают ответы, могут подсознательно предпочитать те варианты, которые подтверждают их собственные представления. Если оценщик думает, что «человек из деревни не должен разбираться в ядерной физике», он может выше оценить ответ, который уводит разговор в сторону. Модель это считывает и учится так делать. Плюс сами тексты, на которых обучаются модели, содержат множество человеческих стереотипов. Нейросети просто копируют то, что видят.
Сейчас почти все популярные ассистенты внедряют функции персонализации. ChatGPT запоминает детали о пользователе, чтобы лучше отвечать в будущем. Если модель уже сейчас по-разному обрабатывает запросы в зависимости от биографии, персонализация может закрепить это поведение. Человек с определенным профилем будет систематически получать ответы хуже, чем другие, просто потому, что ИИ знает о нем что-то, — или не получать ответов вообще.

