Команда исследователей продемонстрировала, насколько легко злоумышленникам внедрить дезинформацию в наборы данных, используемых для обучения крупных языковых моделей. Открытие ученых поднимает серьезные вопросы о достоверности информации, предоставляемой искусственным интеллектом, особенно в таких критически важных областях, как медицина.
Известно, что ответы, генерируемые такими крупными языковыми моделями (LLM), как ChatGPT, не всегда являются точными, а иногда могут быть совершенно ошибочными. Ранее ученые уже выясняли, что дезинформация, целенаправленно размещенная на популярных интернет-ресурсах, может проникать в результаты, выдаваемые…
Хештеги # Hitech.mail.ru Ссылка https://txnl.ru/cuWOQ


Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев