Codex, un grand modèle de langage (LLM) formé sur une variété de bases de code, dépasse l'état de l'art précédent dans sa capacité à synthétiser et à générer du code. Bien que le Codex offre une pléthore d'avantages, les modèles susceptibles de générer du code à une telle échelle présentent des limites importantes, des problèmes d'alignement, le potentiel d'être mal utilisés et la possibilité d'augmenter le taux de progrès dans des domaines techniques qui peuvent eux-mêmes avoir des impacts déstabilisants ou avoir une mauvaise utilisation. potentiel. Pourtant, ces impacts sur la sécurité ne sont pas encore connus ou restent à explorer. Dans cet article, nous décrivons un cadre d'analyse des dangers construit à OpenAI pour découvrir les dangers ou les risques de sécurité que le déploiement de modèles comme le Codex peut imposer techniquement, socialement, politiquement et économiquement. L'analyse est informée par un nouveau cadre d'évaluation qui détermine la capacité des techniques avancées de génération de code par rapport à la complexité et à l'expressivité des invites de spécification, et leur capacité à les comprendre et à les exécuter par rapport aux capacités humaines.
Source