
Нравится вам это или нет, но искусственный интеллект стал частью повседневной жизни. Многие устройства, в том числе электробритвы и зубные щетки, стали «оснащенными ИИ», используя алгоритмы машинного обучения для отслеживания того, как человек использует устройство, как устройство работает в режиме реального времени, и для предоставления обратной связи.
От задавания вопросов ИИ-помощнику, такому как ChatGPT для вебмастеров или Microsoft Copilot, до мониторинга ежедневных тренировок с помощью смарт-часов, многие люди ежедневно используют ИИ-системы или инструменты.
Хотя инструменты и технологии искусственного интеллекта могут облегчить жизнь, они также поднимают важные вопросы о конфиденциальности данных. Эти системы часто собирают большие объемы данных, иногда даже без ведома людей.
Затем эта информация может быть использована для определения личных привычек и предпочтений и даже для прогнозирования будущего поведения на основе выводов, сделанных на основе агрегированных данных.
Генеративное программное обеспечение искусственного интеллекта использует большие объемы обучающих данных для создания нового контента, такого как текст или изображения.
Прогнозирующий искусственный интеллект использует данные для прогнозирования результатов на основе прошлого поведения, например, насколько вероятно, что вы достигнете своей ежедневной цели по количеству шагов, или какие фильмы вы можете захотеть посмотреть. Оба типа могут использоваться для сбора информации о вас.
Как инструменты искусственного интеллекта собирают данные?
Генеративные ИИ-помощники, такие как ChatGPT и Google Gemini, собирают всю информацию, которую пользователи вводят в окно чата. Каждый вопрос, ответ и подсказка, которые вводят пользователи, записываются, хранятся и анализируются для улучшения модели ИИ.
Политика конфиденциальности OpenAI информирует пользователей о том, что «Мы можем использовать предоставленный вами контент для улучшения наших Услуг, например, для обучения моделей, на которых работает ChatGPT».
Несмотря на то, что OpenAI позволяет вам отказаться от использования контента для обучения моделей, она все равно собирает и хранит ваши личные данные. Хотя некоторые компании обещают, что они анонимизируют эти данные, то есть хранят их без указания имени человека, который их предоставил, всегда существует риск повторной идентификации данных.
ChatGPT хранит и анализирует все, что вы вводите в окне подсказки.
Прогнозирующий ИИ – predictive AI
Помимо генеративных ИИ-помощников, социальные сети, такие как Facebook, Instagram и TikTok, постоянно собирают данные о своих пользователях для обучения прогнозирующих ИИ-моделей.
Каждый пост, фото, видео, лайк, репост и комментарий, включая время, которое люди тратят на просмотр каждого из них, собираются в виде данных, которые используются для создания цифровых профилей каждого человека, пользующегося сервисом.
Эти профили могут использоваться для совершенствования систем рекомендаций ИИ социальных сетей. Они также могут продаваться брокерам данных, которые продают данные человека другим компаниям, например, для разработки целевой рекламы, соответствующей интересам этого человека.
Многие социальные сети также отслеживают пользователей на веб-сайтах и в приложениях, размещая на их компьютерах файлы cookie и встроенные пиксели отслеживания. Файлы cookie — это небольшие файлы, в которых хранится информация о том, кто вы и на что вы нажимали во время просмотра веб-сайта.
Одно из наиболее распространенных применений файлов cookie — это цифровые корзины покупок: когда вы помещаете товар в корзину, покидаете веб-сайт и возвращаетесь позже, товар по-прежнему будет в вашей корзине, потому что файл cookie сохранил эту информацию.
Пиксели отслеживания — это невидимые изображения или фрагменты кода, встроенные в веб-сайты, которые уведомляют компании о вашей активности, когда вы посещаете их страницу. Это помогает им отслеживать ваше поведение в Интернете.
Именно поэтому пользователи часто видят или слышат рекламу, связанную с их привычками просмотра и покупок, на многих несвязанных веб-сайтах, которые они просматривают, и даже когда они используют разные устройства, включая компьютеры, телефоны и умные колонки.
Одно исследование показало, что некоторые веб-сайты могут хранить более 300 отслеживающих файлов cookie на вашем компьютере или мобильном телефоне.
Вот как веб-сайты, которые вы просматриваете, могут отслеживать вас с помощью файлов cookie или пикселей отслеживания.
Контроль конфиденциальности данных — и ограничения

Как и платформы генеративного ИИ, социальные сети предлагают настройки конфиденциальности и возможность отказаться от участия, но они дают людям ограниченный контроль над тем, как их личные данные собираются и монетизируются.
"Если услуга бесплатна, то вы — продукт".
Многие инструменты, включающие ИИ, не требуют от человека каких-либо прямых действий для сбора данных о нем. Умные устройства, такие как домашние колонки, фитнес-трекеры и часы, постоянно собирают информацию с помощью биометрических датчиков, распознавания голоса и отслеживания местоположения.
Умные домашние колонки постоянно слушают команду для активации или «пробуждения» устройства. Поскольку устройство слушает это слово, оно улавливает все разговоры, происходящие вокруг него, даже если оно не кажется активным.
Некоторые компании утверждают, что голосовые данные хранятся только тогда, когда обнаруживается слово пробуждения — то, что вы говорите, чтобы разбудить устройство.
Однако люди выражают обеспокоенность по поводу случайных записей, особенно потому, что эти устройства часто подключены к облачным сервисам, которые позволяют хранить, синхронизировать и обмениваться голосовыми данными между несколькими устройствами, такими как ваш телефон, умная колонка и планшет.
Если компания разрешает, к этим данным также могут получить доступ третьи стороны, такие как рекламодатели, компании по анализу данных или правоохранительные органы с ордером.
Отказ от конфиденциальности
Эта возможность доступа третьих лиц также распространяется на смарт-часы и фитнес-трекеры, которые отслеживают показатели здоровья и модели активности пользователей.
Компании, производящие носимые фитнес-устройства, не считаются «покрываемыми организациями» и поэтому не подпадают под действие Закона о переносимости и подотчетности медицинской информации (HIPAA). Это означает, что они имеют законное право продавать данные о здоровье и местоположении, собранные от своих пользователей.
Обеспокоенность по поводу данных HIPAA возникла в 2018 году, когда фитнес-компания Strava опубликовала глобальную тепловую карту маршрутов тренировок пользователей. При этом она случайно раскрыла конфиденциальные военные объекты по всему миру, выделив маршруты тренировок военнослужащих.
Администрация Трампа привлекла компанию Palantir, специализирующуюся на использовании ИИ для анализа данных, для сбора и анализа данных об американцах. Между тем Palantir объявила о партнерстве с компанией, которая управляет системами самообслуживания.
Такие партнерства могут расширить влияние корпораций и правительства на повседневное поведение потребителей. Это партнерство может быть использовано для создания подробных личных профилей американцев путем связывания их потребительских привычек с другими личными данными.
Это вызывает опасения по поводу усиления слежки и потери анонимности. Это может позволить отслеживать и анализировать граждан по многим аспектам их жизни без их ведома или согласия.
Некоторые компании, производящие умные устройства, также отказываются от мер по защите конфиденциальности, вместо того чтобы их усиливать. Amazon недавно объявила, что с 28 марта 2025 года все голосовые записи с устройств Amazon Echo будут по умолчанию отправляться в облако Amazon, и у пользователей больше не будет возможности отключить эту функцию. Это отличается от предыдущих настроек, которые позволяли пользователям ограничивать сбор личных данных.
Подобные изменения вызывают опасения по поводу того, насколько потребители могут контролировать свои данные при использовании умных устройств.
Многие эксперты по конфиденциальности считают хранение голосовых записей в облаке формой сбора данных, особенно когда оно используется для улучшения алгоритмов или создания профилей пользователей, что имеет последствия для законов о конфиденциальности данных, призванных защищать конфиденциальность в Интернете.
Последствия для конфиденциальности данных
Все это вызывает серьезные опасения у людей и правительств по поводу того, как инструменты искусственного интеллекта собирают, хранят, используют и передают данные. Самая большая проблема — это прозрачность. Люди не знают, какие данные собираются, как они используются и кто имеет к ним доступ.
Компании, как правило, используют сложные политики конфиденциальности, наполненные техническим жаргоном, чтобы людям было сложно понять условия услуги, с которыми они соглашаются.
Люди также, как правило, не читают документы с условиями предоставления услуг. Одно исследование показало, что люди в среднем тратят 73 секунды на чтение документа с условиями предоставления услуг, среднее время чтения которого составляет 29-32 минуты.
Данные, собираемые инструментами ИИ, могут изначально храниться в компании, которой вы доверяете, но могут быть легко проданы и переданы компании, которой вы не доверяете.
Инструменты ИИ, компании, отвечающие за них, и компании, имеющие доступ к собираемым ими данным, также могут подвергаться кибератакам и утечкам данных, которые могут раскрыть конфиденциальную личную информацию.
Эти атаки могут осуществляться киберпреступниками, которые делают это ради денег, или так называемыми «усовершенствованными постоянными угрозами», которые, как правило, являются атакующими, спонсируемыми страной/государством, которые получают доступ к сетям и системам и остаются там незамеченными, собирая информацию и личные данные, чтобы в конечном итоге вызвать сбои или нанести ущерб.
Хотя законы и нормативные акты направлены на защиту данных пользователей, развитие и использование ИИ часто опережают законодательный процесс.
Законодательство все еще не успевает за развитием ИИ и вопросами конфиденциальности данных. На данный момент следует исходить из того, что любое устройство или платформа на базе ИИ собирает данные о ваших вводах, поведении и моделях поведения.
Использование инструментов ИИ
Хотя инструменты ИИ собирают данные о людях, и то, как это накопление данных влияет на конфиденциальность данных людей, вызывает беспокойство, эти инструменты также могут быть полезными. Приложения на базе ИИ могут оптимизировать рабочие процессы, автоматизировать повторяющиеся задачи и предоставлять ценную информацию.
Но очень важно подходить к этим инструментам с осознанием и осторожностью.
При использовании генеративной платформы ИИ, которая дает ответы на вопросы, введенные вами в командной строке, не включайте никакую личную информацию, включая имена, даты рождения, номера социального страхования или домашние адреса. На рабочем месте не включайте коммерческую тайну или секретную информацию.
В целом, не вводите в командную строку ничего, что вы не хотели бы раскрыть публично или увидеть на рекламном щите. Помните, что как только вы нажмете «Enter» в командной строке, вы потеряете контроль над этой информацией.
Помните, что включенные устройства всегда находятся в режиме прослушивания, даже если они находятся в спящем режиме. Если вы используете устройства для умного дома или встроенные устройства, выключайте их, когда вам нужно провести частный разговор.
Устройство, находящееся в спящем режиме, выглядит неактивным, но оно по-прежнему включено и находится в режиме прослушивания речи. Отключение устройства от сети или извлечение батарей — хороший способ убедиться, что устройство действительно выключено.
Автор: pimka21
Еще советуем: