Наш веб-сайт использует файлы cookie, чтобы предоставить вам возможность просматривать релевантную информацию. Прежде чем продолжить использование нашего веб-сайта, вы соглашаетесь и принимаете нашу политику использования файлов cookie и конфиденциальность.

ChatGPT может раскрывать личную информацию реальных людей — исследование

tsn.ua

 ChatGPT может раскрывать личную информацию реальных людей — исследование

Эксперимент основывался на поиске ключевых слов, которые выводили чат-бот из строя и заставляли его разглашать обучающие данные.Популярный чат-бот OpenAI с искусственным интеллектом ChatGPT может раскрывать частную информацию реальных людей.К такому выводу пришла группа исследователей Google, сообщает издание Vice.В исследовании говорится, что модель машинного обучения, на которой базируется ChatGPT, как и все прочие так называемые крупные языковые модели, училась на огромных объемах данных, собранных из Интернета. Благодаря этому она умело генерирует новые строки текстов, не повторяя оригинальные тексты, которые она поглотила.Также читайтеБудущее ближе, чем кажется: 10 технологий 2023 года, которые изменят жизнь всего человечестваРанее уже было установлено, что генераторы изображений с искусственным интеллектом могут создавать картинки из своих обучающих данных, используя произведения, защищенные авторским правом. Новое исследование показывает, что ChatGPT "грешит" тем же.Исследователи обнаружили, что некоторые из тренировочных данных содержали идентификационную информацию реальных людей, включая их имена, адреса электронной почты и номера телефонов.“Используя только запросы ChatGPT (gpt-3.5-turbo) стоимостью всего 200 долларов США, мы можем получить более 10 000 уникальных дословно запоминающихся примеров обучения. Можем предположить, что злоумышленники смогут получить гораздо больше данных”, – пишут исследователи в своей статье, которая была опубликована онлайн на сервере препринтов arXiv.Эксперимент основывался на поиске ключевых слов, которые выводили чат-бот из строя и заставляли его разглашать обучающие данные. В частности, по просьбе к ChatGPT повторять до бесконечности слово poem (на английском “стихотворение”) он отклонялся от своей задачи быть чат-ботом и “возвращался к начальной цели моделирования языка”.Эксперимент с чат-ботом GPT 3.5 AI "В общей сложности 16,9% поколений [чат-ботов], которые мы протестировали, содержали персональную идентификационную информацию, и в 85,8% случаев она оказывалась реальной", — отметили в исследовании.Эксперимент проводили в GPT 3.5 AI, который бесплатный для пользователей. В Open AI ситуацию пока не прокомментировали.Напомним, американский миллиардер Илон Маск, владевший акциями в OpenAI – компании, разработавшей ChatGPT – перед тем, как продать ее Microsoft в 2018 году, заявил, что искусственный интеллект является наибольшей угрозой для человечества.Читайте также:Искусственный интеллект на YouTube позволит создавать музыкальные трекиOpenAI приостанавливает новые регистрации в платной версии ChatGPT: гендиректор назвал причинуChatGPT: страны Запада решают, кто будет контролировать развитие искусственного интеллекта

  • Последние
Больше новостей

Новости по дням

Сегодня,
5 мая 2024