ИТ-гигант поступился правом клиентов на неприкосновенность частной жизни и начал использовать для развития своих ИИ-инструментов собранные личные данные. Директор Ассоциации профессиональных пользователей соцсетей и мессенджеров (АППСИМ) Владимир Зыков в материале «ФедералПресс» оценил этичность и возможные последствия такого решения.
Конфиденциальность в сети – то, чего жаждут многие рядовые пользователи. Ведь никому не приятно осознавать, что его поисковые запросы, геолокацию и другие персональные данные собирают, анализируют, а потом еще и продают.
Однако все мы понимаем, что абсолютная анонимность в сети – утопия. Любой из нас оставляет так называемый цифровой след, который может многое сказать о наших предпочтениях и интересах. Тем не менее конфиденциальность все еще хорошо продается и активно используется многочисленными маркетологами. А некоторые пользователи продолжают верить, что, раз написано, данные не собираются, значит, так и есть.
Персданные пользователей – важный источник получения прибыли для ИТ-гигантов. На основе этой информации они разрабатывают свои продукты, в частности, настраивают рекомендательные алгоритмы, настраивают рекламу, обучают чат-ботов с искусственным интеллектом (ИИ). Кроме того, продают персданные третьим лицам.
За примерами далеко ходить не нужно. В Интернете можно найти много историй, как западные корпорации нарушают конфиденциальность. И среди этих нарушителей особо выделяется Google. Неспроста компания не стала запускать свой чат-бот с ИИ Bard в Евросоюзе (ЕС). Точнее, не смогла из-за местных законов по защите данных. Как пишет The Verge, это связано с тем, что Google не ответил на вопросы о конфиденциальности Ирландской комиссии по защите данных – организации, которая регулирует операции корпорации в ЕС. Однако позже у ИТ-гиганта все-таки получилось это сделать: он выпустил новую версию Bard, которая стала доступна пользователям ЕС.
В то же время компания уже предупредила своих сотрудников об опасности использования чат-ботов с ИИ, в том числе и самого Bard. Google посоветовал сотрудникам не вводить свои конфиденциальные материалы в чат-боты с ИИ из-за риска утечки данных.
При этом корпорация уже обновила свою политику конфиденциальности. Теперь ИТ-гигант для создания и развития своих ИИ-инструментов будет использовать любую информацию, которую публикуют пользователи в Интернете. Такое заявление со стороны компании вызвало волну недовольств. Дело дошло даже до коллективного иска против Google. В документе указано, что ИТ-гигант собирал данные миллионов пользователей без их согласия и нарушал законы об авторском праве с целью обучения и разработки своих ИИ-продуктов.
Получаются некие двойные стандарты: защита корпоративной информации важна, а пользовательской нет, пусть утекает в сеть. А если не утечет, будет продана третьим лицам. Например, по данным Bloomberg, корпорация торгует данными миллионов пользователей каждый день, проводя более 70 млрд операций по передаче информации, в том числе касающейся геолокации и предпочтений при открытии страниц в браузере.
Впрочем, не всегда у Google получается остаться безнаказанным за нарушения конфиденциальности. Подобных историй много. Поэтому приведу только ту, о которой стало известно в конце июня этого года. Американские подростки подали в суд на корпорацию за то, что она собирает личные данные детей из приложений, которые сама отметила как безопасные для несовершеннолетних. Тем самым ИТ-гигант нарушил закон США о защите конфиденциальности детей в Интернете.
С таким подходом к конфиденциальности неудивительно, что у ИТ-гиганта возникли сложности с запуском своего чат-бота с ИИ в ЕС. Да, корпорация неоднократно заявляла о том, что делает все для обеспечения безопасности личной информации пользователей. Но, увы, это только слова, а на деле мы видим совсем иное.
Фото: Karl-Josef Hildenbrand / dpa / globallookpress.com