adopter des principes de sécurité dès la conception
adopter des principes de sécurité dès la conception

OpenAI, aux côtés des leaders du secteur, notamment Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI et Stability AI, s'est engagé à mettre en œuvre de solides mesures de sécurité des enfants dans le développement, le déploiement et la maintenance des technologies d'IA générative, comme énoncé dans les principes de la sécurité dès la conception. Cette initiative, menée par Épineune organisation à but non lucratif dédiée à la défense des enfants contre les abus sexuels, et Toute technologie est humaine, une organisation dédiée à la lutte contre les problèmes complexes de la technologie et de la société, vise à atténuer les risques que l'IA générative fait courir aux enfants. En adoptant des principes complets de sécurité dès la conception, OpenAI et nos pairs veillent à ce que la sécurité des enfants soit une priorité à chaque étape du développement de l'IA. À ce jour, nous avons déployé des efforts considérables pour minimiser le potentiel de nos modèles à générer du contenu préjudiciable aux enfants, définir des restrictions d'âge pour ChatGPT et collaborer activement avec le Centre national pour les enfants disparus et exploités (NCMEC), la Tech Coalition et d'autres gouvernements. et les intervenants de l'industrie sur les questions de protection de l'enfance et l'amélioration des mécanismes de signalement.

Dans le cadre de cet effort de sécurité dès la conception, nous nous engageons à :

  1. Développer: Développez, construisez et entraînez des modèles d'IA génératifs qui répondent de manière proactive aux risques pour la sécurité des enfants.
    • Sourcer de manière responsable nos ensembles de données de formation, détecter et supprimer le matériel d’abus sexuel sur enfants (CSAM) et le matériel d’exploitation sexuelle d’enfants (CSEM) des données de formation, et signaler tout CSAM confirmé aux autorités compétentes.
    • Intégrez des boucles de rétroaction et des stratégies de tests de résistance itératives dans notre processus de développement.
    • Déployer des solutions pour lutter contre les abus contradictoires.
  2. Déployer: Libérez et distribuez des modèles d'IA génératifs après qu'ils ont été formés et évalués pour la sécurité des enfants, offrant ainsi des protections tout au long du processus.
    • Combattre et répondre aux contenus et comportements abusifs, et intégrer des efforts de prévention.
    • Encouragez les développeurs à s’approprier la sécurité dès la conception.
  3. Maintenir: Maintenez la sécurité du modèle et de la plate-forme en continuant à comprendre activement et à réagir aux risques liés à la sécurité des enfants.
    • Engagé à supprimer de notre plateforme les nouveaux AIG-CSAM générés par de mauvais acteurs.
    • Investissez dans la recherche et les solutions technologiques futures.
    • Combattez CSAM, AIG-CSAM et CSEM sur nos plateformes.

Cet engagement marque une étape importante dans la prévention de l’utilisation abusive des technologies d’IA pour créer ou diffuser du matériel pédopornographique (AIG-CSAM) et d’autres formes de préjudices sexuels contre des enfants. En tant que membre du groupe de travail, nous avons également convenu de publier des mises à jour sur les progrès réalisés chaque année.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top