Selon les nouvelles d'IT House du 10 juin, Google a publié aujourd'hui un communiqué de presse annonçant le lancement du Secure AI Framework (SAIF) pour garantir que les organisations peuvent déployer la technologie d'intelligence artificielle de manière responsable dans un cadre conceptuel sécurisé.
Google a déclaré que le cadre SAIF est basé sur les réussites existantes dans le processus de développement de logiciels, combinées à une compréhension des mégatendances de sécurité et des risques spécifiques aux systèmes d'IA. Le cadre se concentre sur l'atténuation des risques spécifiques aux systèmes d'IA tels que le vol de modèles, l'empoisonnement des données, les entrées malveillantes et l'extraction d'informations confidentielles à partir des données de formation. Google a pris plusieurs mesures pour soutenir et faire progresser le cadre SAIF afin d'explorer l'IA dans un environnement sûr en intégrant SAIF dans ses produits.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Google a lancé le cadre SAIF pour promouvoir l'exploration et le développement de l'intelligence artificielle dans un environnement sûr
Selon les nouvelles d'IT House du 10 juin, Google a publié aujourd'hui un communiqué de presse annonçant le lancement du Secure AI Framework (SAIF) pour garantir que les organisations peuvent déployer la technologie d'intelligence artificielle de manière responsable dans un cadre conceptuel sécurisé.
Google a déclaré que le cadre SAIF est basé sur les réussites existantes dans le processus de développement de logiciels, combinées à une compréhension des mégatendances de sécurité et des risques spécifiques aux systèmes d'IA. Le cadre se concentre sur l'atténuation des risques spécifiques aux systèmes d'IA tels que le vol de modèles, l'empoisonnement des données, les entrées malveillantes et l'extraction d'informations confidentielles à partir des données de formation. Google a pris plusieurs mesures pour soutenir et faire progresser le cadre SAIF afin d'explorer l'IA dans un environnement sûr en intégrant SAIF dans ses produits.