Intelligence artificielle

Modifié par Aurelie Bertrand le 2025/10/02 16:33


Cette section permet de configurer les options pour les fonctionnalités utilisant l'intelligence artificielle : l'enrichissement des données avec des données ouvertes et la génération d'une fonction de transformation.

Highlight_parameters_FR.png

Données ouvertes

Vous pouvez activer ici la fonctionnalité de données ouvertes:

  • Cochez la case Activer la fonctionnalité de données ouvertes.
    ➡ La commande Enrichir avec des données ouvertes est alors disponible dans le menu contextuel des modèles de données.
    Enrich_data_FR.png
     

Il est également possible de détecter automatiquement si des données ouvertes compatibles avec vos données sont disponibles, à la création de votre modèle de données. Pour cela:

  • Cochez la case Activer la fonctionnalité de données ouvertes à la création d'un modèle de données.
    ➡ Si des données ouvertes compatibles avec vos données sont disponibles, elles vous seront proposées lors de la création de votre modèle de données (après clic sur le bouton Terminer lors de la configuration du modèle de données dans le Studio).

Le champ L'identifiant du rôle contenant les modèles de données ouvertes contient l'identifiant du rôle dédié aux modèles de données ouvertes Digdash Open Data.

LLM (Grand modèle de langage)

Vous pouvez activer et spécifier ici le LLM (grand modèle de langage) utilisé pour l'assistant AI permettant la génération de fonctions de transformation.

  1. Cochez la case Activer le LLM.
  2. Sélectionnez le Fournisseur LLM dans la liste déroulante.

Le fournisseur LLM Ollama nécessite une installation en local. Vous pouvez consultez la documentation Ollama https://github.com/ollama/ollama/ pour plus de détails.

  1. Renseignez les éléments suivants :
     OpenAIGoogle GeminiOllama
    URL du serveurhttps://api.openai.com

    https://generativelanguage.googleapis.com/v1beta/models/nom_du_modèle

    L'URL contient le modèle utilisé par Gemini. Ainsi, nom_du_modèle est à remplacer par le nom du modèle choisi. Par exemple: 
    https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash-latest:generateContent

    Cliquez sur le lien suivant pour consulter la liste des modèles disponibles:
    https://ai.google.dev/gemini-api/docs/models/gemini?hl=fr

    Entrez l'URL du serveur sous la forme suivante :
    http://[serveur]:[port]
    Par exemple : 
    http://lab1234.lan.digdash.com:11434

     

    Clé d'API

    Entrez votre clé API.

    Consultez le paragraphe Configurer une clé API OpenAI si besoin.

    Entrez votre clé API.

    Consultez le paragraphe Configurer une clé API Gemini si besoin.

    Ollama ne nécessite pas de clé API.
    Modèle

    Entrez le nom du modèle choisi.
    Par exemple, gpt-3.5-turbo.

    Cliquez sur le lien suivant pour consulter la liste des modèles disponibles:
    https://platform.openai.com/docs/models

    Le modèle n'est pas renseigné ici mais directement dans l'URL du serveur.
    Le champ doit rester vide. 

    Entrez l'identifiant du modèle. 

    Nous recommandons les modèles suivants : 

    • Codestral 22B : LLM spécialisé dans la génération de code (petit modèle performant).
      Avec le niveau de quantization Q4_K_M, l'identifiant est alors codestral:22b-v0.1-q4_K_M
       
    • Llama 3.3 70B : LLM généraliste pouvant répondre à des tâches générant du code.
      Avec le niveau de quantization Q4_K_M, l'identifiant est alors llama3.3:70b-instruct-q4_K_M

    Cliquez sur le lien suivant pour consulter la liste des modèles disponibles:
    https://ollama.com/search

  2. Cliquez sur Enregistrer.

Pour revenir aux valeurs par défaut, cliquez sur Réinitialiser.

Paramétrage des prompts

Les prompts (ou instructions) utilisés par défaut pour la génération de transformations de données sont stockés dans le répertoire /home/digdash/webapps/ddenterpriseapi/WEB-INF/classes/resources/llm. Il existe un prompt pour chaque fournisseur. ❗Ces prompts NE DOIVENT PAS être modifiés.

Vous pouvez définir un prompt personnalisé sur le même modèle en conservant les dernières lignes :

request:
#/*REQUEST_CLIENT*/#

Afin d'être pris en compte, celui-ci doit se nommer custom.prompt et être placé dans le répertoire /home/digdash/appdata/default/Enterprise Server/ddenterpriseapi/config.

Faits marquants

💡 Consultez la page Afficher les faits marquants pour plus de détails sur l'utilisation des faits marquants.

Des valeurs sont paramétrées par défaut pour configurer l'affichage des faits marquants. Vous avez la possibilité de modifier ces valeurs si vous souhaitez influencer la façon dont ces faits marquants sont identifiés.

ParamètreDescription
Nombre minimum de membres pour Mega

Nombre minimum de membres que la dimension doit contenir pour pouvoir déterminer un méga contributeur.
Par défaut, la dimension doit contenir au moins 5 membres.

Pourcentage minimum pour MegaPourcentage minimum de la somme totale que doit représenter le membre pour être un méga contributeur.
Par défaut, un membre doit contribuer pour au moins 40% d'une mesure donnée pour pouvoir être un méga contributeur.
Nombre minimum K pour TopKNombre minimum de membres contribuant pour au moins le "Pourcentage minimum pour TopK" à une mesure donnée (somme totale).
Par défaut, 2 membres minimum doivent contribuer pour au moins 40% d'une mesure donnée pour être des top contributeurs.
Nombre maximum K pour TopKNombre maximum de membres contribuant pour au moins le "Pourcentage minimum pour TopK" à une mesure donnée (somme totale).
Par défaut, 5 membres maximum doivent contribuer pour au moins 40% d'une mesure donnée pour être des top contributeurs.
Pourcentage K pour TopKPourcentage du nombre de membres permettant de déterminer K.
Par défaut, K est égal à 33%. Il faut au minimum 6 membres pour obtenir un Top2.
Pourcentage minimum pour TopKPourcentage minimum d'une mesure donnée auquel les K meilleurs membres doivent contribuer pour être des Top contributeurs.
Par défaut, les K meilleurs membres doivent contribuer pour au moins 40% à une mesure donnée (somme totale) pour être des top contributeurs.
Limite inférieure la plus basse pour la corrélationCoefficient de corrélation minimal dans le cas d'une dimension avec 10 membres pour que la corrélation soit prise en compte.
Par défaut, le coefficient de corrélation minimal est de 0,7.
Limite inférieure la plus haute pour la corrélationCoefficient de corrélation minimal dans le cas d'une dimension avec 50 membres ou plus pour que la corrélation soit prise en compte.
Par défaut, le coefficient de corrélation minimal est de 0,3.
Limite pour la corrélationLimite du coefficient de corrélation au delà duquel la relation n'est plus considérée comme une corrélation.

ℹ La recherche de corrélation ne s'effectue que dans le cas où la mesure sélectionnée comporte un Méga contributeur, un Top K contributeurs ou Pareto.

Agent

Cette section permet configurer les paramètres serveur pour l'utilisation de DigDash Agent. Consultez le paragraphe Configuration des paramètres du serveur DigDash pour une description détaillée.