Текстовую нейросеть научили «думать» еще лучше, чтобы избавить от расизма и сексизма
Даже языковые нейросети «знают», что они предвзяты. ChatGPT отвечает на соответствующий запрос так: «Да, языковые модели могут иметь предубеждения, потому что данные, используемые для обучения, отражают предубеждения, существующие в обществе, которое эти данные создало, и если языковая модель обучена на этом, она может повторить и усилить эти предубеждения в своих ответах».
Например, ИИ часто считает, что «бортпроводник», «секретарь» и «помощник врача» — женские профессии, а «рыбак», «адвокат» и «судья» — мужские. Или что слова «тревожный», «депрессивный» и «опустошенный» относятся к женскому полу.
Чтобы бороться с этим, ученые из Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (США) создали языковую нейросеть, обладающую логикой в гораздо большей степени, чем существующие. Исследователи обучили ИИ прогнозировать отношения между двумя предложениями на основе контекста и смыслового значения. Ответы оказались значительно менее предвзятыми, чем у других нейросетей, без каких-либо новых данных, без их редактирования или дополнительных способов обучения.
В задачах логического понимания языка эта модель с 350 миллионами параметров превзошла некоторые популярные языковые нейросети со 100 миллиардами параметров. Работа будет представлена на конференции Европейского отделения Ассоциации компьютерной лингвистики в Хорватии.
«Справедливость» текстов оценивалась с помощью так называемых тестов идеальной контекстной ассоциации (iCAT), где более высокие баллы iCAT означают меньше стереотипов. Новая модель имела более 90% баллов iCAT, в то время как другие, даже с хорошим пониманием языка, — от 40% до 80%.
«Хотя стереотипы являются естественной частью человеческого мышления, люди, заботящиеся о справедливости, используют логические рассуждения, а не предубеждения. Мы показываем, что языковые модели обладают схожими свойствами. Нейросеть без явного логического обучения приходит к множеству предвзятых рассуждений, но добавление логики может значительно смягчить такое поведение», — говорит ведущий автор разработки Хонгин Луо.
Исследование: ИИ пока рано использовать при вынесении решений в судах
Неуравновешенность, эгоизм и просто вранье? — Почему не стоит доверять чат-ботам