Разработка генеративного искусственного интеллекта (ГИИ) привела к созданию новых возможностей для чат-ботов, таких как ChatGPT от OpenAI и Bard от Google. Однако с ростом эффективности возникают опасности для конфиденциальности пользователей интернета. Боты на основе ИИ могут создавать дезинформацию, плагиат и вредоносные программы, а также собирать больше данных о пользователях. Эксперты считают, что решение проблем зависит от того, как боты обучены и как мы планируем взаимодействовать с ними.
Чат-боты с искусственным интеллектом используют данные из репозиториев, таких как Common Crawl, для обучения на большом количестве информации, которая собрана из различных источников в интернете. Эти боты используют глубокие нейронные сети, которые анализируют и обрабатывают огромные объёмы данных, чтобы научиться понимать естественный язык и создавать более человекоподобные ответы. Однако, как отмечает Мегха Шривастава (является аспирантом на кафедре компьютерных наук в университете Стэнфорда и ранее проходила стажировку в области искусственного интеллекта в Microsoft Research), большие размеры моделей делают невозможным для человека просмотр и очистку данных. Кроме того, поскольку боты используют только «отфильтрованные» данные, есть риск того, что они могут усвоить ошибки и недостатки, которые могут привести к нежелательным результатам.
Конфиденциальность пользователей может быть нарушена из-за их собственной безопасности или недостаточной защиты данных третьей стороной. В результате личная информация может попасть в обучающий набор чат-ботов, что может привести к возможности повторного использования информации и нарушению личной жизни пользователей.
Как отмечает Дэвид Хельцер, сотрудник организации безопасности the SANS Institute: «Маловероятно, что OpenAI захочет собирать конкретную информацию, такую как медицинские данные, и приписывать её отдельным лицам, чтобы обучать свои модели. Но может ли это случайно оказаться там? Абсолютно!».
Кроме того, в некоторых случаях, чат-боты могут даже раскрывать личные данные пользователей.
Дейв Ли из Bloomberg упоминает: «Когда кто-то попросил ChatGPT пообщаться на платформе зашифрованных сообщений Signal, он указал его точный номер телефона».
Следовательно, необходимо обеспечить безопасность и защиту конфиденциальных данных пользователей при использовании чат-ботов с искусственным интеллектом.
OpenAI, компания, ответственная за ChatGPT, пока что не предоставила информацию о мерах, которые принимает для защиты конфиденциальности данных и обработки личной информации пользователей. Однако разработчики заявили, что он «запрограммирован следовать этическим и правовым стандартам, которые защищают конфиденциальность пользователей и личную информацию», и что он «не имеет доступа к личной информации, если она не предоставлена ему».
В Google также заявили, что запрограммировал аналогичные меры в Bard, чтобы предотвратить обмен личной информацией во время взаимодействия. Несмотря на это, необходимо обеспечить защиту конфиденциальности данных и личной информации пользователей, особенно при использовании чат-ботов с искусственным интеллектом.
Кстати, в ChatGPT обнаружили, что генеративный ИИ может представлять угрозу конфиденциальности не только через информацию, передаваемую в чатах, но и через использование самого программного обеспечения, а также информацию об устройстве и пользователе, которую собирает сервис во время использования. В политике конфиденциальности OpenAI указаны категории стандартной информации, которую собирает система и которые могут идентифицировать пользователя. При запуске ChatGPT предупреждает, что разговоры могут быть просмотрены инструкторами по искусственному интеллекту для улучшения системы.
Подход в Google
Тем временем, Google не создал отдельную политику конфиденциальности для Bard, а использует общий документ о конфиденциальности, который применяется к другим продуктам Google (и который, как оказалось, очень широк). Согласно заявлениям, разговоры с помощью Bard не всегда обязательно сохраняются в учётной записи пользователя Google, и пользователи могут удалить разговоры.
«Чтобы заслужить и сохранить доверие пользователей, необходимо быть очень прозрачным в отношении политики конфиденциальности и процедур защиты данных на интерфейсе», — заявил профессор и выдающийся научный сотрудник по гуманитарным наукам в Virginia Tech, Риши Джайтли.
Позиция OpenAI
Хотя ChatGPT предлагает возможность очистки разговоров, которая, казалось бы, должна удалить все ваши данные, на самом деле это не так, как указано на странице часто задаваемых вопросов сервиса. Кроме того, OpenAI не может удалить некоторые приглашения. Хотя компания не советует делиться конфиденциальной информацией, кажется, что единственным способом удалить личную информацию, которую вы предоставили ChatGPT, является удаление вашей учётной записи. Компания заверяет, что это удалит все связанные данные раз и навсегда. Поэтому, будьте осторожны и не забывайте об этом, когда работаете с ChatGPT
Недавно Дэвид Хельцер заявил, что него не смущает использование индивидуальных разговоров в ChatGPT для обучения. Однако важно учитывать, что данные этих разговоров где-то хранятся, что может создать проблему безопасности. Кроме того, в марте ChatGPT был отключён на некоторое время из-за ошибки программирования, которая привела к утечке информации об истории чатов пользователей. На ранней стадии широкого внедрения такого рода ИИ не ясно, станут ли журналы чатов ценными целями для злоумышленников.
Итог
В обозримом будущем лучше всего относиться к такого рода чат-ботам с тем же подозрением, с которым пользователи должны относиться к любому другому технологическому продукту.
«Пользователь, играющий с этими моделями, должен входить с ожиданием, что любое взаимодействие, которое они имеют с моделью, — это честная игра для открытого ИИ или любой из этих других компаний, чтобы использовать в своих интересах», — заключил Шривастава.