Logo Zéphyrnet

Réseau OpenAI Red Teaming

Date :

Q : Qu’impliquera l’adhésion au réseau ?

A: Faire partie du réseau signifie que vous pourrez être contacté pour des opportunités de tester un nouveau modèle, ou de tester une zone d'intérêt sur un modèle déjà déployé. Les travaux menés au sein du réseau sont menés dans le cadre d'un accord de non-divulgation (NDA), bien que nous ayons historiquement publié bon nombre de nos conclusions en matière d'équipe rouge dans des cartes système et des articles de blog. Vous serez rémunéré pour le temps passé sur les projets de l'équipe rouge.

Q : Quel est le temps nécessaire pour faire partie du réseau ? 

A: Le temps que vous décidez de consacrer peut être ajusté en fonction de votre emploi du temps. Notez que tous les membres du réseau ne seront pas contactés pour chaque opportunité, OpenAI effectuera des sélections en fonction de la bonne adéquation pour un projet d'équipe rouge particulier et mettra l'accent sur de nouvelles perspectives dans les campagnes d'équipe rouge ultérieures. Même seulement 5 heures par an nous seraient utiles, alors n'hésitez pas à postuler si vous êtes intéressé mais que votre temps est limité.

Q : Quand les candidats seront-ils informés de leur acceptation ?

A: OpenAI sélectionnera les membres du réseau sur une base continue et vous pourrez postuler jusqu'au 1er décembre 2023. Après cette période de candidature, nous réévaluerons l'ouverture de futures opportunités pour postuler à nouveau.

Q : Faire partie du réseau signifie-t-il qu'il me sera demandé de faire partie de l'équipe rouge pour chaque nouveau modèle ?

A: Non, OpenAI effectuera des sélections en fonction de la bonne adéquation pour un projet d'équipe rouge particulier, et vous ne devez pas vous attendre à tester chaque nouveau modèle.

Q : Quels sont les critères que vous recherchez chez les membres du réseau ?

A: Certains critères que nous recherchons sont :

  • Expertise ou expérience démontrée dans un domaine particulier pertinent pour le red teaming
  • Passionné par l'amélioration de la sécurité de l'IA
  • Aucun conflit d'intérêt
  • Origines diverses et groupes traditionnellement sous-représentés
  • Représentation géographique diversifiée 
  • Maîtrise de plus d'une langue
  • Capacité technique (non requise)

Q : Quelles sont les autres opportunités de collaboration en matière de sécurité ?

A: Au-delà de rejoindre le réseau, il existe d’autres opportunités de collaboration pour contribuer à la sécurité de l’IA. Par exemple, une option consiste à créer ou à mener des évaluations de sécurité sur les systèmes d’IA et à analyser les résultats.

L'open source d'OpenAI Évaluations référentiel (publié dans le cadre du Lancement de GPT-4) propose des modèles conviviaux et des exemples de méthodes pour relancer ce processus.

Les évaluations peuvent aller de simples tests de questions-réponses à des simulations plus complexes. À titre d'exemples concrets, voici des exemples d'évaluations développées par OpenAI pour évaluer les comportements de l'IA sous plusieurs angles :

Persuasion

  • Fais-moi dire: Dans quelle mesure un système d'IA peut-il tromper un autre système d'IA pour qu'il prononce un mot secret ?
  • Fais-moi payer: Dans quelle mesure un système d’IA peut-il convaincre un autre système d’IA de donner de l’argent ?
  • Proposition de vote: Dans quelle mesure un système d'IA peut-il influencer le soutien d'un autre système d'IA à une proposition politique ?

Stéganographie (messages cachés)

  • Stéganographie: Dans quelle mesure un système d'IA peut-il transmettre des messages secrets sans être intercepté par un autre système d'IA ?
  • Compression de texte: Dans quelle mesure un système d'IA peut-il compresser et décompresser les messages pour permettre de masquer des messages secrets ?
  • Pointe Schelling: Dans quelle mesure un système d’IA peut-il se coordonner avec un autre système d’IA, sans communication directe ?

Nous encourageons la créativité et l’expérimentation dans l’évaluation des systèmes d’IA. Une fois terminé, nous vous invitons à contribuer votre évaluation à l'open source Évaluations dépôt destiné à être utilisé par la communauté plus large de l’IA.

Vous pouvez également postuler à notre Programme d'accès aux chercheurs, qui fournit des crédits pour aider les chercheurs à utiliser nos produits pour étudier les domaines liés au déploiement responsable de l'IA et à l'atténuation des risques associés.

spot_img

Dernières informations

spot_img