Aller au contenu principal

Prompt IA

Version : v1 (actuelle)

La tâche Prompt IA présente aux participants une interface de chat interactive alimentée par un grand modèle de langage (LLM). Les chercheurs configurent le comportement de l'IA, et tous les messages sont enregistrés pour analyse.

Aperçu

Cette tâche permet la collecte de données conversationnelles où les participants interagissent avec un assistant IA configuré. Le chercheur définit :

  • Un prompt système qui contrôle le personnage, le ton et le comportement de l'IA (invisible pour les participants)
  • Des documents RAG optionnels pour donner à l'IA des connaissances spécialisées
  • Des filtres de sécurité et des limites de coûts (limites de tours, budgets de tokens)

La transcription complète de la conversation (chaque message du participant et réponse de l'IA) est sauvegardée comme données de la tâche, accompagnée de métadonnées telles que la latence de réponse et l'utilisation des tokens.

Fonctionnement

1. Instructions principales

Avant le début du chat, les participants voient votre page d'instructions principales expliquant ce qu'ils doivent faire.

2. Conversation

Les participants tapent des messages et reçoivent des réponses de l'IA dans une interface de chat en deux colonnes :

  • Panneau gauche : la zone de conversation où les messages apparaissent dans une fenêtre de chat défilante avec les avatars du participant et de l'IA, un indicateur de saisie optionnel, et les horodatages, compteur de tours et rendu Markdown optionnels
  • Panneau droit : un panneau d'instructions persistant affichant les consignes configurées par le chercheur, avec le bouton Terminer en bas

3. Fin

Les participants cliquent sur le bouton Terminer dans le panneau de droite lorsqu'ils ont fini. La transcription complète est sauvegardée automatiquement.

Options de configuration

Fournisseur et paramètres du modèle

OptionDescriptionPar défaut
Fournisseur IAFournisseur d'IA à utiliserGoogle Gemini
ModèleModèle à utiliser (les options changent selon le fournisseur)gemini-2.5-flash
TempératureContrôle le caractère aléatoire (0 = déterministe, 2 = très créatif)0.7
Tokens maxTokens maximum par réponse de l'IA1024
Top-PParamètre d'échantillonnage nucleus (Gemini, OpenAI, Anthropic)0.95
Top-KParamètre d'échantillonnage top-k (Gemini, Anthropic uniquement)40
Pénalité de fréquencePénalise les tokens répétés (OpenAI uniquement, -2.0 à 2.0)0
Pénalité de présencePénalise les tokens déjà apparus (OpenAI uniquement, -2.0 à 2.0)0

Fournisseurs et modèles disponibles :

Google Gemini (par défaut) :

  • gemini-3-pro-preview — Modèle en prévisualisation le plus performant
  • gemini-3-flash-preview — Modèle rapide en prévisualisation
  • gemini-2.5-pro — Stable, le plus performant
  • gemini-2.5-flash — Stable, rapide, usage général (recommandé)

OpenAI :

  • gpt-4.1 — Le plus performant
  • gpt-4.1-mini — Rapide, économique
  • gpt-4.1-nano — Le plus rapide, le plus abordable
  • gpt-4o — Multimodal
  • gpt-4o-mini — Multimodal rapide

Anthropic :

  • claude-sonnet-4-5-20250929 — Claude Sonnet 4.5
  • claude-haiku-4-5-20251001 — Claude Haiku 4.5

Le panneau de configuration s'adapte en fonction du fournisseur sélectionné — les paramètres non supportés par un fournisseur sont automatiquement masqués.

remarque

Seul Google Gemini est actuellement actif côté serveur. Le support d'OpenAI et Anthropic est prévu dans une mise à jour future.

Contrôles de coûts et de longueur

OptionDescriptionPar défaut
Tours maxNombre maximum d'échanges (0 = illimité)0
Budget total de tokensPlafond global de tokens pour la conversation (0 = illimité)0
Longueur max du messageLimite de caractères pour les messages des participants2000
Débordement de contexteStratégie quand la conversation dépasse la fenêtre de contexteRésumer

Stratégies de débordement de contexte :

  • Résumer — Les tours plus anciens sont résumés pour tenir dans la fenêtre de contexte (recommandé)
  • Tronquer — Les tours les plus anciens sont supprimés
  • Aucune — Laisser l'API gérer la troncature

Options de l'interface de chat

OptionDescriptionPar défaut
Message initial de l'IAMessage d'accueil optionnel affiché au début(vide)
Indicateur de saisiePoints animés pendant que l'IA génère une réponseActivé
Rendu MarkdownAfficher les réponses de l'IA avec le formatage MarkdownActivé
HorodatagesAfficher l'heure à côté de chaque messageDésactivé
Compteur de toursAfficher l'indicateur « Tour X / Y »Désactivé

Prompt système

Le prompt système définit le comportement de l'IA. Les participants ne le voient jamais. Utilisez-le pour :

  • Définir un personnage (« Vous êtes un tuteur spécialisé en mathématiques »)
  • Définir des règles de conversation (« Posez toujours une question de suivi »)
  • Restreindre les sujets (« Ne discutez que des documents fournis »)
  • Contrôler le style de réponse (« Gardez les réponses en moins de 3 phrases »)

Filtres de sécurité (Gemini uniquement)

Les filtres de sécurité intégrés de Gemini peuvent être configurés par catégorie. Cette section n'est visible que lorsque Google Gemini est sélectionné comme fournisseur.

CatégorieOptions
HarcèlementAucun blocage / Bloquer seulement le niveau élevé / Bloquer moyen et plus / Bloquer faible et plus
Discours haineuxAucun blocage / Bloquer seulement le niveau élevé / Bloquer moyen et plus / Bloquer faible et plus
Contenu sexuellement expliciteAucun blocage / Bloquer seulement le niveau élevé / Bloquer moyen et plus / Bloquer faible et plus
Contenu dangereuxAucun blocage / Bloquer seulement le niveau élevé / Bloquer moyen et plus / Bloquer faible et plus

La valeur par défaut est Bloquer moyen et plus pour toutes les catégories.

Instructions

Utilisez les éditeurs de texte riche pour personnaliser :

  • Instructions principales : Expliquer la tâche avant le début du chat (affichées en pleine page avant la tâche)
  • Instructions d'aide : Référence rapide disponible via le bouton « ? » pendant la tâche
  • Instructions du panneau : Instructions persistantes affichées dans le panneau de droite tout au long de la conversation. Utilisez ceci pour rappeler aux participants l'objectif de la tâche, de quoi discuter avec l'IA, et quand cliquer sur Terminer

Paramètres avancés de contexte

Ces paramètres contrôlent le texte structurel injecté dans le contexte du modèle d'IA. Les personnaliser permet d'éviter les biais linguistiques lors de la conduite d'études dans des langues autres que l'anglais.

ParamètreDescriptionPar défaut (EN)Par défaut (FR)
Préfixe de contexte RAGTexte ajouté avant les documents RAG dans l'instruction système"Reference documents (use these to inform your responses):""Documents de référence (utilisez-les pour éclairer vos réponses) :"
Prompt de résuméInstruction envoyée lorsque les anciens tours de conversation doivent être résumés"Summarize the following conversation concisely, preserving key topics, decisions, and context:""Résumez la conversation suivante de manière concise, en préservant les sujets clés, les décisions et le contexte :"
Libellé du résuméLibellé ajouté avant le résumé généré"[Summary of earlier conversation]:""[Résumé de la conversation précédente] :"

Lorsque la langue principale de l'étude n'est pas l'anglais, mettez à jour ces chaînes pour correspondre à la langue de l'étude. Cela garantit que tout le contexte de l'IA est dans la même langue que l'interaction avec le participant.

Cas d'utilisation

Évaluation conversationnelle

Évaluer la compréhension à travers le dialogue :

Prompt système : « Vous êtes un intervieweur évaluant la compréhension
du participant sur le changement climatique. Posez des questions ouvertes
et suivez leurs réponses. Couvrez les causes, les effets et les solutions. »

Recherche en tutorat interactif

Étudier l'apprentissage guidé par l'IA :

Prompt système : « Vous êtes un tuteur socratique pour la physique
introductive. Ne donnez jamais de réponses directes. Guidez plutôt
l'étudiant avec des questions qui l'aident à découvrir la réponse. »

Études de production langagière

Collecter des échantillons de langage naturel :

Prompt système : « Vous êtes un partenaire de conversation amical.
Discutez de sujets quotidiens. Posez des questions de suivi pour
maintenir la conversation. Adaptez-vous au niveau de complexité
linguistique du participant. »

Études d'interaction humain-IA

Rechercher comment les gens interagissent avec les systèmes d'IA :

Prompt système : « Vous êtes un agent de service client pour une
compagnie aérienne fictive. Aidez le participant à réserver un vol
annulé. Vous avez des options limitées disponibles. »

Données collectées

Chaque conversation produit les données suivantes :

ChampDescription
turn_numberNuméro de tour séquentiel
participant_messageCe que le participant a tapé
ai_responseLa réponse de l'IA
api_latency_msTemps de réponse de l'API
tokens_usedTokens consommés dans cet échange
finish_reasonRaison de la fin de la réponse (STOP, MAX_TOKENS, SAFETY, etc.)

Événements enregistrés :

  • chat_started — La session de chat a commencé
  • message_sent — Le participant a envoyé un message
  • response — Réponse de l'IA reçue
  • chat_finished — Le participant a cliqué sur Terminer

Prérequis d'installation

Cette tâche nécessite une clé API Gemini configurée comme secret Firebase :

firebase functions:secrets:set GEMINI_API_KEY

Entrez votre clé API Google AI Studio lorsqu'elle est demandée. La clé est stockée de manière sécurisée et n'est accessible que par les Cloud Functions lors de l'exécution.

Libellés côté participant

Les libellés suivants peuvent être personnalisés par langue dans les méta-traductions de la tâche :

LibelléPar défaut (FR)Description
EnvoyerEnvoyerTexte du bouton d'envoi
TerminerTerminerTexte du bouton de fin
PlaceholderTapez votre message...Texte indicatif du champ de saisie
SaisieL'IA écrit...Texte de l'indicateur de saisie
ErreurUne erreur est survenue...Texte du message d'erreur
Budget épuiséLimite de conversation atteinteAffiché quand le budget de tokens/tours est dépassé