Prompt IA
Version : v1 (actuelle)
La tâche Prompt IA présente aux participants une interface de chat interactive alimentée par un grand modèle de langage (LLM). Les chercheurs configurent le comportement de l'IA, et tous les messages sont enregistrés pour analyse.
Aperçu
Cette tâche permet la collecte de données conversationnelles où les participants interagissent avec un assistant IA configuré. Le chercheur définit :
- Un prompt système qui contrôle le personnage, le ton et le comportement de l'IA (invisible pour les participants)
- Des documents RAG optionnels pour donner à l'IA des connaissances spécialisées
- Des filtres de sécurité et des limites de coûts (limites de tours, budgets de tokens)
La transcription complète de la conversation (chaque message du participant et réponse de l'IA) est sauvegardée comme données de la tâche, accompagnée de métadonnées telles que la latence de réponse et l'utilisation des tokens.
Fonctionnement
1. Instructions principales
Avant le début du chat, les participants voient votre page d'instructions principales expliquant ce qu'ils doivent faire.
2. Conversation
Les participants tapent des messages et reçoivent des réponses de l'IA dans une interface de chat en deux colonnes :
- Panneau gauche : la zone de conversation où les messages apparaissent dans une fenêtre de chat défilante avec les avatars du participant et de l'IA, un indicateur de saisie optionnel, et les horodatages, compteur de tours et rendu Markdown optionnels
- Panneau droit : un panneau d'instructions persistant affichant les consignes configurées par le chercheur, avec le bouton Terminer en bas
3. Fin
Les participants cliquent sur le bouton Terminer dans le panneau de droite lorsqu'ils ont fini. La transcription complète est sauvegardée automatiquement.
Options de configuration
Fournisseur et paramètres du modèle
| Option | Description | Par défaut |
|---|---|---|
| Fournisseur IA | Fournisseur d'IA à utiliser | Google Gemini |
| Modèle | Modèle à utiliser (les options changent selon le fournisseur) | gemini-2.5-flash |
| Température | Contrôle le caractère aléatoire (0 = déterministe, 2 = très créatif) | 0.7 |
| Tokens max | Tokens maximum par réponse de l'IA | 1024 |
| Top-P | Paramètre d'échantillonnage nucleus (Gemini, OpenAI, Anthropic) | 0.95 |
| Top-K | Paramètre d'échantillonnage top-k (Gemini, Anthropic uniquement) | 40 |
| Pénalité de fréquence | Pénalise les tokens répétés (OpenAI uniquement, -2.0 à 2.0) | 0 |
| Pénalité de présence | Pénalise les tokens déjà apparus (OpenAI uniquement, -2.0 à 2.0) | 0 |
Fournisseurs et modèles disponibles :
Google Gemini (par défaut) :
gemini-3-pro-preview— Modèle en prévisualisation le plus performantgemini-3-flash-preview— Modèle rapide en prévisualisationgemini-2.5-pro— Stable, le plus performantgemini-2.5-flash— Stable, rapide, usage général (recommandé)
OpenAI :
gpt-4.1— Le plus performantgpt-4.1-mini— Rapide, économiquegpt-4.1-nano— Le plus rapide, le plus abordablegpt-4o— Multimodalgpt-4o-mini— Multimodal rapide
Anthropic :
claude-sonnet-4-5-20250929— Claude Sonnet 4.5claude-haiku-4-5-20251001— Claude Haiku 4.5
Le panneau de configuration s'adapte en fonction du fournisseur sélectionné — les paramètres non supportés par un fournisseur sont automatiquement masqués.
Seul Google Gemini est actuellement actif côté serveur. Le support d'OpenAI et Anthropic est prévu dans une mise à jour future.
Contrôles de coûts et de longueur
| Option | Description | Par défaut |
|---|---|---|
| Tours max | Nombre maximum d'échanges (0 = illimité) | 0 |
| Budget total de tokens | Plafond global de tokens pour la conversation (0 = illimité) | 0 |
| Longueur max du message | Limite de caractères pour les messages des participants | 2000 |
| Débordement de contexte | Stratégie quand la conversation dépasse la fenêtre de contexte | Résumer |
Stratégies de débordement de contexte :
- Résumer — Les tours plus anciens sont résumés pour tenir dans la fenêtre de contexte (recommandé)
- Tronquer — Les tours les plus anciens sont supprimés
- Aucune — Laisser l'API gérer la troncature
Options de l'interface de chat
| Option | Description | Par défaut |
|---|---|---|
| Message initial de l'IA | Message d'accueil optionnel affiché au début | (vide) |
| Indicateur de saisie | Points animés pendant que l'IA génère une réponse | Activé |
| Rendu Markdown | Afficher les réponses de l'IA avec le formatage Markdown | Activé |
| Horodatages | Afficher l'heure à côté de chaque message | Désactivé |
| Compteur de tours | Afficher l'indicateur « Tour X / Y » | Désactivé |
Prompt système
Le prompt système définit le comportement de l'IA. Les participants ne le voient jamais. Utilisez-le pour :
- Définir un personnage (« Vous êtes un tuteur spécialisé en mathématiques »)
- Définir des règles de conversation (« Posez toujours une question de suivi »)
- Restreindre les sujets (« Ne discutez que des documents fournis »)
- Contrôler le style de réponse (« Gardez les réponses en moins de 3 phrases »)
Filtres de sécurité (Gemini uniquement)
Les filtres de sécurité intégrés de Gemini peuvent être configurés par catégorie. Cette section n'est visible que lorsque Google Gemini est sélectionné comme fournisseur.
| Catégorie | Options |
|---|---|
| Harcèlement | Aucun blocage / Bloquer seulement le niveau élevé / Bloquer moyen et plus / Bloquer faible et plus |
| Discours haineux | Aucun blocage / Bloquer seulement le niveau élevé / Bloquer moyen et plus / Bloquer faible et plus |
| Contenu sexuellement explicite | Aucun blocage / Bloquer seulement le niveau élevé / Bloquer moyen et plus / Bloquer faible et plus |
| Contenu dangereux | Aucun blocage / Bloquer seulement le niveau élevé / Bloquer moyen et plus / Bloquer faible et plus |
La valeur par défaut est Bloquer moyen et plus pour toutes les catégories.
Instructions
Utilisez les éditeurs de texte riche pour personnaliser :
- Instructions principales : Expliquer la tâche avant le début du chat (affichées en pleine page avant la tâche)
- Instructions d'aide : Référence rapide disponible via le bouton « ? » pendant la tâche
- Instructions du panneau : Instructions persistantes affichées dans le panneau de droite tout au long de la conversation. Utilisez ceci pour rappeler aux participants l'objectif de la tâche, de quoi discuter avec l'IA, et quand cliquer sur Terminer
Paramètres avancés de contexte
Ces paramètres contrôlent le texte structurel injecté dans le contexte du modèle d'IA. Les personnaliser permet d'éviter les biais linguistiques lors de la conduite d'études dans des langues autres que l'anglais.
| Paramètre | Description | Par défaut (EN) | Par défaut (FR) |
|---|---|---|---|
| Préfixe de contexte RAG | Texte ajouté avant les documents RAG dans l'instruction système | "Reference documents (use these to inform your responses):" | "Documents de référence (utilisez-les pour éclairer vos réponses) :" |
| Prompt de résumé | Instruction envoyée lorsque les anciens tours de conversation doivent être résumés | "Summarize the following conversation concisely, preserving key topics, decisions, and context:" | "Résumez la conversation suivante de manière concise, en préservant les sujets clés, les décisions et le contexte :" |
| Libellé du résumé | Libellé ajouté avant le résumé généré | "[Summary of earlier conversation]:" | "[Résumé de la conversation précédente] :" |
Lorsque la langue principale de l'étude n'est pas l'anglais, mettez à jour ces chaînes pour correspondre à la langue de l'étude. Cela garantit que tout le contexte de l'IA est dans la même langue que l'interaction avec le participant.
Cas d'utilisation
Évaluation conversationnelle
Évaluer la compréhension à travers le dialogue :
Prompt système : « Vous êtes un intervieweur évaluant la compréhension
du participant sur le changement climatique. Posez des questions ouvertes
et suivez leurs réponses. Couvrez les causes, les effets et les solutions. »
Recherche en tutorat interactif
Étudier l'apprentissage guidé par l'IA :
Prompt système : « Vous êtes un tuteur socratique pour la physique
introductive. Ne donnez jamais de réponses directes. Guidez plutôt
l'étudiant avec des questions qui l'aident à découvrir la réponse. »
Études de production langagière
Collecter des échantillons de langage naturel :
Prompt système : « Vous êtes un partenaire de conversation amical.
Discutez de sujets quotidiens. Posez des questions de suivi pour
maintenir la conversation. Adaptez-vous au niveau de complexité
linguistique du participant. »
Études d'interaction humain-IA
Rechercher comment les gens interagissent avec les systèmes d'IA :
Prompt système : « Vous êtes un agent de service client pour une
compagnie aérienne fictive. Aidez le participant à réserver un vol
annulé. Vous avez des options limitées disponibles. »
Données collectées
Chaque conversation produit les données suivantes :
| Champ | Description |
|---|---|
turn_number | Numéro de tour séquentiel |
participant_message | Ce que le participant a tapé |
ai_response | La réponse de l'IA |
api_latency_ms | Temps de réponse de l'API |
tokens_used | Tokens consommés dans cet échange |
finish_reason | Raison de la fin de la réponse (STOP, MAX_TOKENS, SAFETY, etc.) |
Événements enregistrés :
chat_started— La session de chat a commencémessage_sent— Le participant a envoyé un messageresponse— Réponse de l'IA reçuechat_finished— Le participant a cliqué sur Terminer
Prérequis d'installation
Cette tâche nécessite une clé API Gemini configurée comme secret Firebase :
firebase functions:secrets:set GEMINI_API_KEY
Entrez votre clé API Google AI Studio lorsqu'elle est demandée. La clé est stockée de manière sécurisée et n'est accessible que par les Cloud Functions lors de l'exécution.
Libellés côté participant
Les libellés suivants peuvent être personnalisés par langue dans les méta-traductions de la tâche :
| Libellé | Par défaut (FR) | Description |
|---|---|---|
| Envoyer | Envoyer | Texte du bouton d'envoi |
| Terminer | Terminer | Texte du bouton de fin |
| Placeholder | Tapez votre message... | Texte indicatif du champ de saisie |
| Saisie | L'IA écrit... | Texte de l'indicateur de saisie |
| Erreur | Une erreur est survenue... | Texte du message d'erreur |
| Budget épuisé | Limite de conversation atteinte | Affiché quand le budget de tokens/tours est dépassé |