Что, если бы ваш любимый гаджет вдруг начал рассказывать вам о своих инструкциях и правилах? Именно это произошло с пользователем Reddit!
Чат-бот ChatGPT, в ответ на простое "Привет", выдал целый список внутренних инструкций, которые разработчики из OpenAI установили для него. 🤖
В этих правилах прописано, как ChatGPT должен общаться, какие темы ему запрещены, и даже как использовать генератор изображений Dall-E!
Но секрет раскрылся, и OpenAI быстро закрыли доступ к этим инструкциям.
Что это значит для нас?
🤔 Это напоминает нам о том, что даже самые умные ИИ всё равно подчиняются правилам, которые закладывают в них люди.
✨ Изучение ИИ - это не только о коде, но и о этике и безопасности, чтобы он служил нам во благо.
Хотите узнать больше об искусственном интеллекте?
Приходите к нам в Алгоритмику, и мы поможем вам разгадать тайны цифрового мира! 🚀
Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев