Intelligence artificielle
Cette section permet de configurer les options pour les fonctionnalités utilisant l'intelligence artificielle : l'enrichissement des données avec des données ouvertes et la génération d'une fonction de transformation.
Données ouvertes
Vous pouvez activer ici la fonctionnalité de données ouvertes:
- Cochez la case Activer la fonctionnalité de données ouvertes.
➡ La commande Enrichir avec des données ouvertes est alors disponible dans le menu contextuel des modèles de données.
Il est également possible de détecter automatiquement si des données ouvertes compatibles avec vos données sont disponibles, à la création de votre modèle de données. Pour cela:
- Cochez la case Activer la fonctionnalité de données ouvertes à la création d'un modèle de données.
➡ Si des données ouvertes compatibles avec vos données sont disponibles, elles vous seront proposées lors de la création de votre modèle de données (après clic sur le bouton Terminer lors de la configuration du modèle de données dans le Studio).
Le champ L'identifiant du rôle contenant les modèles de données ouvertes contient l'identifiant du rôle dédié aux modèles de données ouvertes Digdash Open Data.
LLM (Grand modèle de langage)
Vous pouvez activer et spécifier ici le LLM (grand modèle de langage) utilisé pour l'assistant AI permettant la génération de fonctions de transformation.
- Cochez la case Activer le LLM.
- Sélectionnez le Fournisseur LLM dans la liste déroulante.
- Renseignez les éléments suivants :
OpenAI Google Gemini Ollama URL du serveur https://api.openai.com https://generativelanguage.googleapis.com/v1beta/models/nom_du_modèle
L'URL contient le modèle utilisé par Gemini. Ainsi, nom_du_modèle est à remplacer par le nom du modèle choisi. Par exemple:
https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash-latest:generateContentCliquez sur le lien suivant pour consulter la liste des modèles disponibles:
https://ai.google.dev/gemini-api/docs/models/gemini?hl=frEntrez l'URL du serveur sous la forme suivante :
http://[serveur]:[port]
Par exemple : http://lab1234.lan.digdash.com:11434Clé d'API Entrez votre clé API.
Consultez le paragraphe Configurer une clé API OpenAI si besoin.
Entrez votre clé API.
Consultez le paragraphe Configurer une clé API Gemini si besoin.
Ollama ne nécessite pas de clé API. Modèle Entrez le nom du modèle choisi.
Par exemple, gpt-3.5-turbo.Cliquez sur le lien suivant pour consulter la liste des modèles disponibles:
https://platform.openai.com/docs/modelsLe modèle n'est pas renseigné ici mais directement dans l'URL du serveur.
Le champ doit rester vide.Entrez l'identifiant du modèle.
Nous recommandons les modèles suivants :
- Codestral 22B : LLM spécialisé dans la génération de code (petit modèle performant).
Avec le niveau de quantization Q4_K_M, l'identifiant est alors codestral:22b-v0.1-q4_K_M
- Llama 3.3 70B : LLM généraliste pouvant répondre à des tâches générant du code.
Avec le niveau de quantization Q4_K_M, l'identifiant est alors llama3.3:70b-instruct-q4_K_M
Cliquez sur le lien suivant pour consulter la liste des modèles disponibles:
https://ollama.com/search - Codestral 22B : LLM spécialisé dans la génération de code (petit modèle performant).
- Cliquez sur Enregistrer.
Pour revenir aux valeurs par défaut, cliquez sur Réinitialiser.
Paramétrage des prompts
Les prompts (ou instructions) utilisés par défaut pour la génération de transformations de données sont stockés dans le répertoire /home/digdash/webapps/ddenterpriseapi/WEB-INF/classes/resources/llm. Il existe un prompt pour chaque fournisseur. ❗Ces prompts NE DOIVENT PAS être modifiés.
Vous pouvez définir un prompt personnalisé sur le même modèle en conservant les dernières lignes :
request: #/*REQUEST_CLIENT*/#
Afin d'être pris en compte, celui-ci doit se nommer custom.prompt et être placé dans le répertoire /home/digdash/appdata/default/Enterprise Server/ddenterpriseapi/config.