Ekinox
Blocks

Agent

Le bloc Agent sert d'interface entre votre flux de travail et les grands modèles de langage (LLM). Il exécute des requêtes d'inférence auprès de divers fournisseurs d'IA, traite les entrées en langage naturel selon des instructions définies, et génère des sorties structurées ou non structurées pour une utilisation en aval.

Configuration du bloc Agent

Aperçu

Le bloc Agent vous permet de :

Traiter le langage naturel : analyser les entrées utilisateur et générer des réponses contextuelles

Exécuter des tâches basées sur l'IA : effectuer des analyses de contenu, de la génération et de la prise de décision

Appeler des outils externes : accéder aux API, bases de données et services pendant le traitement

Générer des sorties structurées : renvoyer des données JSON correspondant à vos exigences de schéma

Options de configuration

Prompt système

Le prompt système établit les paramètres opérationnels et les contraintes comportementales de l'agent. Cette configuration définit le rôle de l'agent, sa méthodologie de réponse et les limites de traitement pour toutes les requêtes entrantes.

You are a helpful assistant that specializes in financial analysis.
Always provide clear explanations and cite sources when possible.
When responding to questions about investments, include risk disclaimers.

Prompt utilisateur

Le prompt utilisateur représente les données d'entrée principales pour le traitement d'inférence. Ce paramètre accepte du texte en langage naturel ou des données structurées que l'agent analysera pour y répondre. Les sources d'entrée comprennent :

  • Configuration statique : saisie directe de texte spécifiée dans la configuration du bloc
  • Entrée dynamique : données transmises depuis des blocs en amont via des interfaces de connexion
  • Génération à l'exécution : contenu généré par programmation pendant l'exécution du flux de travail

Sélection du modèle

Le bloc Agent prend en charge plusieurs fournisseurs de LLM via une interface d'inférence unifiée. Les modèles disponibles comprennent :

Modèles OpenAI : GPT-5, GPT-4o, o1, o3, o4-mini, gpt-4.1 (inférence basée sur API) Modèles Anthropic : Claude 3.7 Sonnet (inférence basée sur API) Modèles Google : Gemini 2.5 Pro, Gemini 2.0 Flash (inférence basée sur API) Fournisseurs alternatifs : Groq, Cerebras, xAI, DeepSeek (inférence basée sur API) Déploiement local : modèles compatibles Ollama (inférence auto-hébergée)

Température

Contrôlez la créativité et l'aléatoire des réponses :

Réponses plus déterministes et ciblées. Idéal pour les tâches factuelles, le support client et les situations où la précision est essentielle.

Équilibre entre créativité et concentration. Convient aux applications générales qui nécessitent à la fois précision et créativité.

Réponses plus créatives et variées. Parfait pour l'écriture créative, le brainstorming et la génération d'idées diverses.

La plage de température (0-1 ou 0-2) varie selon le modèle sélectionné.

Clé API

Votre clé API pour le fournisseur de LLM sélectionné. Elle est stockée de manière sécurisée et utilisée pour l'authentification.

Outils

Les outils étendent les capacités de l'agent grâce à des intégrations d'API externes et des connexions à des services. Le système d'outils permet l'appel de fonctions, permettant à l'agent d'exécuter des opérations au-delà de la génération de texte.

Processus d'intégration d'outils :

  1. Accédez à la section de configuration des outils dans le bloc Agent
  2. Sélectionnez parmi plus de 60 intégrations préconstruites ou définissez des fonctions personnalisées
  3. Configurez les paramètres d'authentification et les contraintes opérationnelles

Catégories d'outils disponibles :

  • Communication : Gmail, Slack, Telegram, WhatsApp, Microsoft Teams
  • Sources de données : Notion, Google Sheets, Airtable, Supabase, Pinecone
  • Services web : Firecrawl, Google Search, Exa AI, automatisation de navigateur
  • Développement : GitHub, Jira, gestion des dépôts et des problèmes Linear
  • Services IA : OpenAI, Perplexity, Hugging Face, ElevenLabs

Contrôle d'exécution des outils :

  • Auto : Le modèle détermine l'invocation d'outils selon le contexte et la nécessité
  • Obligatoire : L'outil doit être appelé lors de chaque demande d'inférence
  • Aucun : Définition d'outil disponible mais exclue du contexte du modèle

Format de réponse

Le paramètre Format de réponse impose la génération de sorties structurées via la validation par schéma JSON. Cela garantit des réponses cohérentes et lisibles par machine qui se conforment aux structures de données prédéfinies :

{
  "name": "user_analysis",
  "schema": {
    "type": "object",
    "properties": {
      "sentiment": {
        "type": "string",
        "enum": ["positive", "negative", "neutral"]
      },
      "confidence": {
        "type": "number",
        "minimum": 0,
        "maximum": 1
      }
    },
    "required": ["sentiment", "confidence"]
  }
}

Cette configuration contraint la sortie du modèle à respecter le schéma spécifié, empêchant les réponses en texte libre et assurant la génération de données structurées.

Accès aux résultats

Une fois qu'un agent a terminé, vous pouvez accéder à ses sorties :

  • <agent.content> : Le texte de réponse de l'agent ou les données structurées
  • <agent.tokens> : Statistiques d'utilisation des tokens (prompt, complétion, total)
  • <agent.tool_calls> : Détails des outils que l'agent a utilisés pendant l'exécution
  • <agent.cost> : Coût estimé de l'appel API (si disponible)

Fonctionnalités avancées

Mémoire + Agent : historique de conversation

Utilisez un bloc Memory avec un id cohérent (par exemple, chat) pour conserver les messages entre les exécutions, et inclure cet historique dans le prompt de l'Agent.

  • Ajoutez le message de l'utilisateur avant l'Agent
  • Lisez l'historique de conversation pour le contexte
  • Ajoutez la réponse de l'Agent après son exécution

Voir la référence du bloc Memory pour plus de détails.

Entrées et sorties

  • Prompt système : instructions définissant le comportement et le rôle de l'agent

  • Prompt utilisateur : texte ou données d'entrée à traiter

  • Modèle : sélection du modèle d'IA (OpenAI, Anthropic, Google, etc.)

  • Température : contrôle de l'aléatoire des réponses (0-2)

  • Outils : tableau des outils disponibles pour l'appel de fonctions

  • Format de réponse : schéma JSON pour une sortie structurée

  • agent.content : texte de réponse de l'agent ou données structurées

  • agent.tokens : objet de statistiques d'utilisation des tokens

  • agent.tool_calls : tableau des détails d'exécution des outils

  • agent.cost : coût estimé de l'appel API (si disponible)

  • Contenu : sortie de réponse principale de l'agent

  • Métadonnées : statistiques d'utilisation et détails d'exécution

  • Accès : disponible dans les blocs après l'agent

Exemples de cas d'utilisation

Automatisation du support client

Scénario : traiter les demandes des clients avec accès à la base de données

  1. L'utilisateur soumet un ticket de support via le bloc API
  2. L'agent vérifie les commandes/abonnements dans Postgres et recherche des conseils dans la base de connaissances
  3. Si une escalade est nécessaire, l'agent crée un problème Linear avec le contexte pertinent
  4. L'agent rédige une réponse par e-mail claire
  5. Gmail envoie la réponse au client
  6. La conversation est enregistrée dans Memory pour conserver l'historique des messages futurs

Analyse de contenu multi-modèles

Scénario : analyser le contenu avec différents modèles d'IA

  1. Le bloc de fonction traite le document téléchargé
  2. L'agent avec GPT-4o effectue une analyse technique
  3. L'agent avec Claude analyse le sentiment et le ton
  4. Le bloc de fonction combine les résultats pour le rapport final

Assistant de recherche alimenté par des outils

Scénario : assistant de recherche avec recherche web et accès aux documents

  1. Requête de l'utilisateur reçue via l'entrée
  2. L'agent effectue des recherches sur le web à l'aide de l'outil Google Search
  3. L'agent accède à la base de données Notion pour les documents internes
  4. L'agent compile un rapport de recherche complet

Bonnes pratiques

  • Soyez précis dans les instructions système : définissez clairement le rôle, le ton et les limites de l'agent. Plus vos instructions sont précises, mieux l'agent pourra remplir sa fonction prévue.
  • Choisissez le bon réglage de température : utilisez des réglages de température plus bas (0-0,3) lorsque la précision est importante, ou augmentez la température (0,7-2,0) pour des réponses plus créatives ou variées
  • Utilisez efficacement les outils : intégrez des outils qui complètent l'objectif de l'agent et améliorent ses capacités. Soyez sélectif quant aux outils que vous fournissez pour éviter de surcharger l'agent. Pour les tâches avec peu de chevauchement, utilisez un autre bloc Agent pour obtenir les meilleurs résultats.
Agent