Wiki source code of Intelligence artificielle
Last modified by Aurelie Bertrand on 2025/03/21 16:53
Show last authors
author | version | line-number | content |
---|---|---|---|
1 | {{ddtoc/}} | ||
2 | |||
3 | ---- | ||
4 | |||
5 | Cette section permet de configurer les options pour les fonctionnalités utilisant l'intelligence artificielle : l'[[enrichissement des données avec des données ouvertes>>doc:Digdash.user_guide.studio.open_data.WebHome]] et la génération d'une fonction de transformation. | ||
6 | |||
7 | [[image:IA_FR.png]] | ||
8 | |||
9 | = Données ouvertes = | ||
10 | |||
11 | Vous pouvez activer ici la [[fonctionnalité de données ouvertes>>doc:Digdash.user_guide.studio.open_data.WebHome]]: | ||
12 | |||
13 | * Cochez la case **Activer la fonctionnalité de données ouvertes**. | ||
14 | ➡ La commande** Enrichir avec des données ouvertes** est alors disponible dans le menu contextuel des modèles de données. | ||
15 | [[image:Enrich_data_FR.png||height="682" width="957"]] | ||
16 | |||
17 | |||
18 | Il est également possible de détecter automatiquement si des données ouvertes compatibles avec vos données sont disponibles, à la création de votre modèle de données. Pour cela: | ||
19 | |||
20 | * Cochez la case **Activer la fonctionnalité de données ouvertes à la création d'un modèle de données.** | ||
21 | ➡ Si des données ouvertes compatibles avec vos données sont disponibles, elles vous seront proposées lors de la création de votre modèle de données (après clic sur le bouton **Terminer** lors de la configuration du modèle de données dans le Studio). | ||
22 | |||
23 | Le champ **L'identifiant du rôle contenant les modèles de données ouvertes **contient l'identifiant du rôle dédié aux modèles de données ouvertes **Digdash Open Data**. | ||
24 | |||
25 | = LLM (Grand modèle de langage) = | ||
26 | |||
27 | Vous pouvez activer et spécifier ici le LLM (grand modèle de langage) utilisé pour l'assistant AI permettant [[la génération de fonctions de transformation>>doc:Digdash.user_guide.studio.Create_datamodel.transform_data.transform_data_tab.WebHome||anchor="IA"]]. | ||
28 | |||
29 | 1. Cochez la case **Activer le LLM**. | ||
30 | 1. Sélectionnez le **Fournisseur LLM **dans la liste déroulante. | ||
31 | |||
32 | (% class="box infomessage" %) | ||
33 | ((( | ||
34 | Le fournisseur LLM **Ollama** nécessite une installation en local. Vous pouvez consultez la documentation Ollama [[https:~~/~~/github.com/ollama/ollama/>>https://github.com/ollama/ollama/]] pour plus de détails. | ||
35 | ))) | ||
36 | |||
37 | (% start="3" %) | ||
38 | 1. Renseignez les éléments suivants :((( | ||
39 | |=(% style="width: 181px;" %) |=(% style="width: 286px;" %)OpenAI|=(% style="width: 363px;" %)Google Gemini|=(% style="width: 482px;" %)Ollama | ||
40 | |=(% style="width: 181px;" %)**URL du serveur**|(% style="width:286px" %)https:~/~/api.openai.com|(% style="width:363px" %)((( | ||
41 | https:~/~/generativelanguage.googleapis.com/v1beta/models///nom_du_modèle// | ||
42 | |||
43 | L'URL contient le modèle utilisé par Gemini. Ainsi,// nom_du_modèle //est à remplacer par le nom du modèle choisi. Par exemple: | ||
44 | https:~/~/generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash-latest:generateContent | ||
45 | |||
46 | Cliquez sur le lien suivant pour consulter la liste des modèles disponibles: | ||
47 | [[https:~~/~~/ai.google.dev/gemini-api/docs/models/gemini?hl=fr>>https://ai.google.dev/gemini-api/docs/models/gemini?hl=fr]] | ||
48 | )))|(% style="width:482px" %)((( | ||
49 | Entrez l'URL du serveur sous la forme suivante : | ||
50 | //http:~/~/[serveur]:[port] | ||
51 | Par exemple : //[[http:~~/~~/lab1234.lan.digdash.com:11434>>http://lab3090.lan.digdash.com:11434]] | ||
52 | |||
53 | |||
54 | ))) | ||
55 | |=(% style="width: 181px;" %)**Clé d'API**|(% style="width:286px" %)((( | ||
56 | Entrez votre clé API. | ||
57 | |||
58 | Consultez le paragraphe [[Configurer une clé API OpenAI>>doc:.LLM_API_key.WebHome||anchor="OpenAI"]] si besoin. | ||
59 | )))|(% style="width:363px" %)((( | ||
60 | Entrez votre clé API. | ||
61 | |||
62 | Consultez le paragraphe [[Configurer une clé API Gemini>>doc:.LLM_API_key.WebHome||anchor="Gemini"]] si besoin. | ||
63 | )))|(% style="width:482px" %)Ollama ne nécessite pas de clé API. | ||
64 | |=(% style="width: 181px;" %)**Modèle**|(% style="width:286px" %)((( | ||
65 | Entrez le nom du modèle choisi. | ||
66 | Par exemple, gpt-3.5-turbo. | ||
67 | |||
68 | Cliquez sur le lien suivant pour consulter la liste des modèles disponibles: | ||
69 | [[https:~~/~~/platform.openai.com/docs/models>>https://platform.openai.com/docs/models]] | ||
70 | )))|(% style="width:363px" %)((( | ||
71 | Le modèle n'est pas renseigné ici mais directement dans l'URL du serveur. | ||
72 | Le champ doit rester vide. | ||
73 | )))|(% style="width:482px" %)((( | ||
74 | Entrez l'identifiant du modèle. | ||
75 | |||
76 | Nous recommandons les modèles suivants : | ||
77 | |||
78 | * **Codestral 22B** : LLM spécialisé dans la génération de code (petit modèle performant). | ||
79 | Avec le niveau de [[quantization>>https://huggingface.co/docs/optimum/concept_guides/quantization]] Q4_K_M, l'identifiant est alors //codestral:22b-v0.1-q4_K_M// | ||
80 | |||
81 | * **Llama 3.3 70B **: LLM généraliste pouvant répondre à des tâches générant du code. | ||
82 | Avec le niveau de [[quantization>>https://huggingface.co/docs/optimum/concept_guides/quantization]] Q4_K_M, l'identifiant est alors //llama3.3:70b-instruct-q4_K_M// | ||
83 | |||
84 | Cliquez sur le lien suivant pour consulter la liste des modèles disponibles: | ||
85 | [[https:~~/~~/ollama.com/search>>https://ollama.com/search]] | ||
86 | ))) | ||
87 | ))) | ||
88 | 1. Cliquez sur **Enregistrer**. | ||
89 | |||
90 | Pour revenir aux valeurs par défaut, cliquez sur **Réinitialiser**. | ||
91 | |||
92 | == Paramétrage des prompts == | ||
93 | |||
94 | Les prompts (ou instructions) utilisés par défaut pour la génération de transformations de données sont stockés dans le répertoire ///home/digdash/webapps/ddenterpriseapi/WEB-INF/classes/resources/llm.// Il existe un prompt pour chaque fournisseur. ❗Ces prompts NE DOIVENT PAS être modifiés. | ||
95 | |||
96 | Vous pouvez définir un prompt personnalisé sur le même modèle en conservant les dernières lignes : | ||
97 | |||
98 | {{{request: | ||
99 | #/*REQUEST_CLIENT*/#}}} | ||
100 | |||
101 | Afin d'être pris en compte, celui-ci doit se nommer //custom.prompt// et être placé dans le répertoire ///home/digdash/appdata/default/Enterprise Server/ddenterpriseapi/config.// | ||
102 | |||
103 |