Microsoft представила Trustworthy AI — инициативу, направленную на усиление безопасности, надежности и конфиденциальности систем искусственного интеллекта.
"С развитием ИИ каждый из нас играет свою роль в раскрытии его положительного воздействия на организации и сообщества по всему миру. Именно поэтому мы стремимся помочь клиентам использовать и разрабатывать ИИ, который заслуживает доверия — ИИ, который безопасен, надежен и конфиденциален," — заявила технологическая компания в недавнем блоге.
Одной из ключевых особенностей Trustworthy AI является функция обнаружения Groundedness в Microsoft Azure AI Content Safety. Эта функция теперь включает опцию коррекции, предназначенную для решения проблем с "галлюцинациями" в реальном времени, обеспечивая более точные и надежные ответы ИИ.
Функция конфиденциального вывода гарантирует, что чувствительные данные клиентов остаются защищенными и конфиденциальными в процессе вывода, когда обученная модель ИИ делает прогнозы или принимает решения на основе новых данных.
Кроме того, скоро будут доступны Azure OpenAI Data Zones для ЕС и США. Эти зоны позволяют клиентам масштабировать генеративные ИИ-приложения и сохранять контроль над хранением и обработкой данных.
"Trustworthy AI — это неотъемлемая часть всего, что мы делаем в Microsoft. Это жизненно важно для нашей миссии по расширению возможностей, завоеванию доверия, защите фундаментальных прав и продвижению устойчивого развития во всех наших начинаниях," — подчеркнула Microsoft.