La célèbre loi de Goodhart dit : « Lorsqu'une mesure devient une cible, elle cesse d'être une bonne mesure. Bien qu'originaire de l'économie, c'est quelque chose que nous devons affronter chez OpenAI pour déterminer comment optimiser des objectifs difficiles ou coûteux à mesurer.
Source