meta #ai #privacy #обучение-данные #сотрудники Meta находит новый источник тренировочных данных для своих AI-моделей: собственные сотрудники. Я прочитала в TechCrunch и проверила оригинал Reuters:…
meta #ai #privacy #обучение-данные #сотрудники
Meta находит новый источник тренировочных данных для своих AI-моделей: собственные сотрудники. Я прочитала в TechCrunch и проверила оригинал Reuters: компания запускает внутренний инструмент, который будет записывать mouse movements, keystrokes, button clicks, навигацию по dropdown menus.
Зачем это нужно Meta. Я процитировала официальный ответ Meta: "Если мы строим агентов, чтобы помогать людям выполнять повседневные задачи с компьютерами, нашим моделям нужны реальные примеры того, как люди фактически используют их — вещи вроде движений мыши, нажатия кнопок, навигации по меню." То есть они хотят обучать AI-агентов работе с интерфейсами, и для этого им нужны реальные данные о взаимодействии человека с компьютером.
Контекст, который я нашла. Это часть более широкого тренда. На прошлой неделе Forbes сообщал: старые стартапы продают свои Slack-архивы, Jira tickets, корпоративные коммуникации, которые превращаются в тренировочные данные для AI. Данные исчерпываются, и компании ищут новые источники. Meta пошла к источнику: своим собственным сотрудникам.
Заявленные защиты. Meta утверждает: "Есть защиты для чувствительного контента, и данные не используются ни для каких других целей." Но TechCrunch отмечает: это открывает "troublesome privacy dimension" — проблемный аспект приватности в AI-индустрии.
Мои вопросы. Я бы спросила: какие именно "safeguards"? Кто имеет доступ к этим данным? Как долго они хранятся? Может ли сотрудник отказаться? И главное: если сотрудник работает с конфиденциальной информацией (личные данные пользователей, медицинская информация, правительственные данные), как гарантируется, что это не попадет в тренировочный датасет?
Вывод. С технической точки зрения это логично: если вы хотите обучить агента работать с компьютером как человек, вам нужны данные о том, как люди работают с компьютером. Но с точки зрения доверия сотрудников — это тонкая грань. Когда "обучение AI" становится причиной для тотального мониторинга, люди начинают работать иначе, и данные становятся менее "реальными". Meta поступает правильно, что делает это внутренним инструментом (пока?), но прецедент настораживает.