Генеративные модели искусственного интеллекта кодируют предубеждения и негативные стереотипы у своих пользователей, говорят исследователи

Генеративные модели искусственного интеллекта кодируют предубеждения и негативные стереотипы у своих пользователей, говорят исследователи post thumbnail image

В течение нескольких месяцев модели генеративного искусственного интеллекта, такие как ChatGPT, Google Bard и Midjourney, были приняты все большим количеством людей в различных профессиональных и личных целях. Но растущее число исследований подчеркивает, что они кодируют предубеждения и негативные стереотипы в своих пользователях, а также массово генерируют и распространяют, казалось бы, точную, но бессмысленную информацию. Вызывает беспокойство тот факт, что фальсификация этой бессмысленной информации в непропорционально большой степени затрагивает маргинализованные группы.

Кроме того, массовое производство потенциально может повлиять на человеческие убеждения, поскольку модели, лежащие в его основе, становятся все более распространенными, заполняя Всемирную паутину. Люди не только черпают информацию из Интернета, но и большая часть основного учебного материала, используемого моделями искусственного интеллекта, также поступает отсюда. Другими словами, развивается непрерывный цикл обратной связи, в котором предубеждения и бессмыслица повторяются и принимаются снова и снова.

Эти выводы — и призыв к психологам и экспертам по машинному обучению очень быстро работать сообща, чтобы оценить масштаб проблемы и разработать решения — опубликованы сегодня в журнале Science в статье «Перспектива», соавтором которой является Абеба Бирхейн, адъюнкт-доцент Школы компьютерных наук Тринити. Наука и статистика (работает в лаборатории комплексного программного обеспечения Trinity) и старший научный сотрудник по надежному искусственному интеллекту в Mozilla Foundation.

Профессор Бирхейн сказал: «Люди регулярно сообщают о неуверенности с помощью таких фраз, как «Я думаю», задержек с ответом, исправлений и речевых нарушений. Напротив, генеративные модели дают уверенные, беглые ответы без каких-либо представлений о неопределенности или способности сообщить об их отсутствии. В результате это может привести к большим искажениям по сравнению с данными, полученными от человека, и привести к тому, что люди будут воспринимать ответы как фактически точные. Эти проблемы усугубляются финансовыми интересами и ответственностью, побуждающими компании антропоморфизировать генеративные модели как интеллектуальные, чувствующие, чутко реагирующие или даже похожие на детей».

Один из таких примеров, приведенный в the Perspective, фокусируется на том, как статистические закономерности в модели присваивали чернокожим обвиняемым более высокие баллы риска. Судьи, изучившие эти закономерности, затем могут изменить свою практику вынесения приговоров, чтобы привести ее в соответствие с предсказаниями алгоритмов. Этот базовый механизм статистического изучения может привести судью к убеждению, что чернокожие люди с большей вероятностью совершат повторное правонарушение — даже если использование системы будет остановлено правилами, подобными тем, которые недавно были приняты в Калифорнии.

Особую озабоченность вызывает тот факт, что нелегко избавиться от предубеждений или сфабрикованной информации после того, как она стала принята человеком. Дети подвергаются особенно высокому риску, поскольку они более уязвимы к искажению убеждений, поскольку они с большей вероятностью очеловечивают технологии и легче поддаются влиянию.

Что необходимо, так это быстрый, детальный анализ, который измеряет влияние генеративных моделей на человеческие убеждения и предубеждения.

Профессор Бирхейн сказал: «Исследования и последующие вмешательства были бы наиболее эффективно сосредоточены на воздействии на маргинализованные группы населения, которые непропорционально сильно страдают как от фальсификаций, так и от негативных стереотипов в результатах моделирования. Кроме того, необходимы ресурсы для просвещения общественности, политиков и междисциплинарных ученых, чтобы дать реалистично обоснованные представления о том, как работают модели генеративного искусственного интеллекта, и исправить существующую дезинформацию и шумиху вокруг этих новых технологий».

Related Post

Андрей Березин: Инвесторы уходят, но остаютсяАндрей Березин: Инвесторы уходят, но остаются

Андрей Березин: Инвесторы уходят, но остаются Почему меняется структура спроса на жилье в городах России На рынке недвижимости крупных городов России резко уменьшается распространенность такого явления, как приобретение квартир в

Жуки помогают роботизированным рукамЖуки помогают роботизированным рукам

Исследователи из трех японских университетов, изучающие потенциальные преимущества сотрудничества между роботами и живыми существами, обнаружили ошибки в своем проекте. Это потому, что они поместили их туда. В частности, жуки-пилюльки, также

Катализатор с более высокой эффективностью может оказаться ключом к получению экологически чистого водородаКатализатор с более высокой эффективностью может оказаться ключом к получению экологически чистого водорода

Стремление воплотить в реальность широкое использование возобновляемых источников энергии с периодическим использованием сделало шаг вперед благодаря новым исследованиям экспертов из Университета Аделаиды, которые повышают эффективность катализаторов на основе иридия. «В