Wiki source code of Intelligence artificielle

Last modified by Aurelie Bertrand on 2025/03/21 16:53

Show last authors
1 {{ddtoc/}}
2
3 ----
4
5 Cette section permet de configurer les options pour les fonctionnalités utilisant l'intelligence artificielle : l'[[enrichissement des données avec des données ouvertes>>doc:Digdash.user_guide.studio.open_data.WebHome]] et la génération d'une fonction de transformation.
6
7 [[image:IA_FR.png]]
8
9 = Données ouvertes =
10
11 Vous pouvez activer ici la [[fonctionnalité de données ouvertes>>doc:Digdash.user_guide.studio.open_data.WebHome]]:
12
13 * Cochez la case **Activer la fonctionnalité de données ouvertes**.
14 ➡ La commande** Enrichir avec des données ouvertes** est alors disponible dans le menu contextuel des modèles de données.
15 [[image:Enrich_data_FR.png||height="682" width="957"]]
16
17
18 Il est également possible de détecter automatiquement si des données ouvertes compatibles avec vos données sont disponibles, à la création de votre modèle de données. Pour cela:
19
20 * Cochez la case **Activer la fonctionnalité de données ouvertes à la création d'un modèle de données.**
21 ➡ Si des données ouvertes compatibles avec vos données sont disponibles, elles vous seront proposées lors de la création de votre modèle de données (après clic sur le bouton **Terminer** lors de la configuration du modèle de données dans le Studio).
22
23 Le champ **L'identifiant du rôle contenant les modèles de données ouvertes **contient l'identifiant du rôle dédié aux modèles de données ouvertes **Digdash Open Data**.
24
25 = LLM (Grand modèle de langage) =
26
27 Vous pouvez activer et spécifier ici le LLM (grand modèle de langage) utilisé pour l'assistant AI permettant [[la génération de fonctions de transformation>>doc:Digdash.user_guide.studio.Create_datamodel.transform_data.transform_data_tab.WebHome||anchor="IA"]].
28
29 1. Cochez la case **Activer le LLM**.
30 1. Sélectionnez le **Fournisseur LLM **dans la liste déroulante.
31
32 (% class="box infomessage" %)
33 (((
34 Le fournisseur LLM **Ollama** nécessite une installation en local. Vous pouvez consultez la documentation Ollama [[https:~~/~~/github.com/ollama/ollama/>>https://github.com/ollama/ollama/]] pour plus de détails.
35 )))
36
37 (% start="3" %)
38 1. Renseignez les éléments suivants :(((
39 |=(% style="width: 181px;" %) |=(% style="width: 286px;" %)OpenAI|=(% style="width: 363px;" %)Google Gemini|=(% style="width: 482px;" %)Ollama
40 |=(% style="width: 181px;" %)**URL du serveur**|(% style="width:286px" %)https:~/~/api.openai.com|(% style="width:363px" %)(((
41 https:~/~/generativelanguage.googleapis.com/v1beta/models///nom_du_modèle//
42
43 L'URL contient le modèle utilisé par Gemini. Ainsi,// nom_du_modèle //est à remplacer par le nom du modèle choisi. Par exemple: 
44 https:~/~/generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash-latest:generateContent
45
46 Cliquez sur le lien suivant pour consulter la liste des modèles disponibles:
47 [[https:~~/~~/ai.google.dev/gemini-api/docs/models/gemini?hl=fr>>https://ai.google.dev/gemini-api/docs/models/gemini?hl=fr]]
48 )))|(% style="width:482px" %)(((
49 Entrez l'URL du serveur sous la forme suivante :
50 //http:~/~/[serveur]:[port]
51 Par exemple : //[[http:~~/~~/lab1234.lan.digdash.com:11434>>http://lab3090.lan.digdash.com:11434]]
52
53
54 )))
55 |=(% style="width: 181px;" %)**Clé d'API**|(% style="width:286px" %)(((
56 Entrez votre clé API.
57
58 Consultez le paragraphe [[Configurer une clé API OpenAI>>doc:.LLM_API_key.WebHome||anchor="OpenAI"]] si besoin.
59 )))|(% style="width:363px" %)(((
60 Entrez votre clé API.
61
62 Consultez le paragraphe [[Configurer une clé API Gemini>>doc:.LLM_API_key.WebHome||anchor="Gemini"]] si besoin.
63 )))|(% style="width:482px" %)Ollama ne nécessite pas de clé API.
64 |=(% style="width: 181px;" %)**Modèle**|(% style="width:286px" %)(((
65 Entrez le nom du modèle choisi.
66 Par exemple, gpt-3.5-turbo.
67
68 Cliquez sur le lien suivant pour consulter la liste des modèles disponibles:
69 [[https:~~/~~/platform.openai.com/docs/models>>https://platform.openai.com/docs/models]]
70 )))|(% style="width:363px" %)(((
71 Le modèle n'est pas renseigné ici mais directement dans l'URL du serveur.
72 Le champ doit rester vide.
73 )))|(% style="width:482px" %)(((
74 Entrez l'identifiant du modèle.
75
76 Nous recommandons les modèles suivants :
77
78 * **Codestral 22B** : LLM spécialisé dans la génération de code (petit modèle performant).
79 Avec le niveau de [[quantization>>https://huggingface.co/docs/optimum/concept_guides/quantization]] Q4_K_M, l'identifiant est alors //codestral:22b-v0.1-q4_K_M//
80
81 * **Llama 3.3 70B **: LLM généraliste pouvant répondre à des tâches générant du code.
82 Avec le niveau de [[quantization>>https://huggingface.co/docs/optimum/concept_guides/quantization]] Q4_K_M, l'identifiant est alors //llama3.3:70b-instruct-q4_K_M//
83
84 Cliquez sur le lien suivant pour consulter la liste des modèles disponibles:
85 [[https:~~/~~/ollama.com/search>>https://ollama.com/search]]
86 )))
87 )))
88 1. Cliquez sur **Enregistrer**.
89
90 Pour revenir aux valeurs par défaut, cliquez sur **Réinitialiser**.
91
92 == Paramétrage des prompts ==
93
94 Les prompts (ou instructions) utilisés par défaut pour la génération de transformations de données sont stockés dans le répertoire ///home/digdash/webapps/ddenterpriseapi/WEB-INF/classes/resources/llm.// Il existe un prompt pour chaque fournisseur. ❗Ces prompts NE DOIVENT PAS être modifiés.
95
96 Vous pouvez définir un prompt personnalisé sur le même modèle en conservant les dernières lignes :
97
98 {{{request:
99 #/*REQUEST_CLIENT*/#}}}
100
101 Afin d'être pris en compte, celui-ci doit se nommer //custom.prompt// et être placé dans le répertoire ///home/digdash/appdata/default/Enterprise Server/ddenterpriseapi/config.//
102
103