Эксперты изучили работу искусственного интеллекта «Apple Intelligence»
Исследователи из AI Forensics провели анализ уведомлений, созданных системой «Apple Intelligence» компании Apple. В рамках исследования они изучили более 10 тысяч сообщений, сформированных алгоритмом. В некоторых случаях специалисты заметили, что система воспроизводит распространенные социальные стереотипы.
Например, при описании профессий без указания пола ИИ чаще относит роль врача к мужчине, а медсестры – к женщине. Также были замечены особенности в упоминании этничности. Эксперты объясняют это тем, что алгоритмы обучаются на больших массивах данных – а они часто отражают реальную статистику общества.
Поставьте «Класс», если вам интересны темы технологий и искусственного интеллекта. Как вы думаете, можно ли научить ИИ полностью избегать подобных стереотипов? Поделитесь своим мнением в комментариях.
Мы используем cookie-файлы, чтобы улучшить сервисы для вас. Если ваш возраст менее 13 лет, настроить cookie-файлы должен ваш законный представитель. Больше информации
Нет комментариев