Code source wiki de Intelligence artificielle
Modifié par Aurelie Bertrand le 2025/03/21 16:53
Masquer les derniers auteurs
author | version | line-number | content |
---|---|---|---|
![]() |
28.1 | 1 | {{ddtoc/}} |
2 | |||
3 | ---- | ||
4 | |||
![]() |
6.1 | 5 | Cette section permet de configurer les options pour les fonctionnalités utilisant l'intelligence artificielle : l'[[enrichissement des données avec des données ouvertes>>doc:Digdash.user_guide.studio.open_data.WebHome]] et la génération d'une fonction de transformation. |
![]() |
2.2 | 6 | |
![]() |
23.1 | 7 | [[image:IA_FR.png]] |
![]() |
8.1 | 8 | |
![]() |
2.2 | 9 | = Données ouvertes = |
![]() |
2.3 | 10 | |
![]() |
8.1 | 11 | Vous pouvez activer ici la [[fonctionnalité de données ouvertes>>doc:Digdash.user_guide.studio.open_data.WebHome]]: |
![]() |
2.3 | 12 | |
![]() |
3.1 | 13 | * Cochez la case **Activer la fonctionnalité de données ouvertes**. |
14 | ➡ La commande** Enrichir avec des données ouvertes** est alors disponible dans le menu contextuel des modèles de données. | ||
![]() |
23.1 | 15 | [[image:Enrich_data_FR.png||height="682" width="957"]] |
![]() |
3.1 | 16 | |
![]() |
2.3 | 17 | |
![]() |
4.1 | 18 | Il est également possible de détecter automatiquement si des données ouvertes compatibles avec vos données sont disponibles, à la création de votre modèle de données. Pour cela: |
19 | |||
20 | * Cochez la case **Activer la fonctionnalité de données ouvertes à la création d'un modèle de données.** | ||
21 | ➡ Si des données ouvertes compatibles avec vos données sont disponibles, elles vous seront proposées lors de la création de votre modèle de données (après clic sur le bouton **Terminer** lors de la configuration du modèle de données dans le Studio). | ||
![]() |
5.2 | 22 | |
23 | Le champ **L'identifiant du rôle contenant les modèles de données ouvertes **contient l'identifiant du rôle dédié aux modèles de données ouvertes **Digdash Open Data**. | ||
![]() |
7.1 | 24 | |
![]() |
8.1 | 25 | = LLM (Grand modèle de langage) = |
26 | |||
![]() |
19.1 | 27 | Vous pouvez activer et spécifier ici le LLM (grand modèle de langage) utilisé pour l'assistant AI permettant [[la génération de fonctions de transformation>>doc:Digdash.user_guide.studio.Create_datamodel.transform_data.transform_data_tab.WebHome||anchor="IA"]]. |
![]() |
8.1 | 28 | |
29 | 1. Cochez la case **Activer le LLM**. | ||
30 | 1. Sélectionnez le **Fournisseur LLM **dans la liste déroulante. | ||
![]() |
13.2 | 31 | |
32 | (% class="box infomessage" %) | ||
33 | ((( | ||
![]() |
23.3 | 34 | Le fournisseur LLM **Ollama** nécessite une installation en local. Vous pouvez consultez la documentation Ollama [[https:~~/~~/github.com/ollama/ollama/>>https://github.com/ollama/ollama/]] pour plus de détails. |
![]() |
13.2 | 35 | ))) |
36 | |||
![]() |
15.1 | 37 | (% start="3" %) |
![]() |
11.1 | 38 | 1. Renseignez les éléments suivants :((( |
![]() |
27.1 | 39 | |=(% style="width: 181px;" %) |=(% style="width: 286px;" %)OpenAI|=(% style="width: 363px;" %)Google Gemini|=(% style="width: 482px;" %)Ollama |
40 | |=(% style="width: 181px;" %)**URL du serveur**|(% style="width:286px" %)https:~/~/api.openai.com|(% style="width:363px" %)((( | ||
![]() |
11.1 | 41 | https:~/~/generativelanguage.googleapis.com/v1beta/models///nom_du_modèle// |
42 | |||
![]() |
13.2 | 43 | L'URL contient le modèle utilisé par Gemini. Ainsi,// nom_du_modèle //est à remplacer par le nom du modèle choisi. Par exemple: |
![]() |
13.1 | 44 | https:~/~/generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash-latest:generateContent |
![]() |
11.1 | 45 | |
46 | Cliquez sur le lien suivant pour consulter la liste des modèles disponibles: | ||
47 | [[https:~~/~~/ai.google.dev/gemini-api/docs/models/gemini?hl=fr>>https://ai.google.dev/gemini-api/docs/models/gemini?hl=fr]] | ||
![]() |
27.1 | 48 | )))|(% style="width:482px" %)((( |
![]() |
23.2 | 49 | Entrez l'URL du serveur sous la forme suivante : |
50 | //http:~/~/[serveur]:[port] | ||
51 | Par exemple : //[[http:~~/~~/lab1234.lan.digdash.com:11434>>http://lab3090.lan.digdash.com:11434]] | ||
52 | |||
53 | |||
![]() |
11.1 | 54 | ))) |
![]() |
27.1 | 55 | |=(% style="width: 181px;" %)**Clé d'API**|(% style="width:286px" %)((( |
![]() |
11.1 | 56 | Entrez votre clé API. |
57 | |||
![]() |
17.1 | 58 | Consultez le paragraphe [[Configurer une clé API OpenAI>>doc:.LLM_API_key.WebHome||anchor="OpenAI"]] si besoin. |
![]() |
27.1 | 59 | )))|(% style="width:363px" %)((( |
![]() |
11.1 | 60 | Entrez votre clé API. |
61 | |||
![]() |
17.1 | 62 | Consultez le paragraphe [[Configurer une clé API Gemini>>doc:.LLM_API_key.WebHome||anchor="Gemini"]] si besoin. |
![]() |
27.1 | 63 | )))|(% style="width:482px" %)Ollama ne nécessite pas de clé API. |
64 | |=(% style="width: 181px;" %)**Modèle**|(% style="width:286px" %)((( | ||
![]() |
23.3 | 65 | Entrez le nom du modèle choisi. |
66 | Par exemple, gpt-3.5-turbo. | ||
![]() |
11.1 | 67 | |
68 | Cliquez sur le lien suivant pour consulter la liste des modèles disponibles: | ||
69 | [[https:~~/~~/platform.openai.com/docs/models>>https://platform.openai.com/docs/models]] | ||
![]() |
27.1 | 70 | )))|(% style="width:363px" %)((( |
![]() |
11.1 | 71 | Le modèle n'est pas renseigné ici mais directement dans l'URL du serveur. |
![]() |
23.3 | 72 | Le champ doit rester vide. |
![]() |
27.1 | 73 | )))|(% style="width:482px" %)((( |
![]() |
23.3 | 74 | Entrez l'identifiant du modèle. |
75 | |||
![]() |
23.2 | 76 | Nous recommandons les modèles suivants : |
77 | |||
![]() |
25.2 | 78 | * **Codestral 22B** : LLM spécialisé dans la génération de code (petit modèle performant). |
![]() |
29.1 | 79 | Avec le niveau de [[quantization>>https://huggingface.co/docs/optimum/concept_guides/quantization]] Q4_K_M, l'identifiant est alors //codestral:22b-v0.1-q4_K_M// |
![]() |
23.3 | 80 | |
81 | * **Llama 3.3 70B **: LLM généraliste pouvant répondre à des tâches générant du code. | ||
![]() |
29.1 | 82 | Avec le niveau de [[quantization>>https://huggingface.co/docs/optimum/concept_guides/quantization]] Q4_K_M, l'identifiant est alors //llama3.3:70b-instruct-q4_K_M// |
![]() |
23.3 | 83 | |
84 | Cliquez sur le lien suivant pour consulter la liste des modèles disponibles: | ||
85 | [[https:~~/~~/ollama.com/search>>https://ollama.com/search]] | ||
![]() |
11.1 | 86 | ))) |
87 | ))) | ||
![]() |
8.1 | 88 | 1. Cliquez sur **Enregistrer**. |
![]() |
10.1 | 89 | |
90 | Pour revenir aux valeurs par défaut, cliquez sur **Réinitialiser**. | ||
![]() |
24.2 | 91 | |
92 | == Paramétrage des prompts == | ||
93 | |||
![]() |
26.1 | 94 | Les prompts (ou instructions) utilisés par défaut pour la génération de transformations de données sont stockés dans le répertoire ///home/digdash/webapps/ddenterpriseapi/WEB-INF/classes/resources/llm.// Il existe un prompt pour chaque fournisseur. ❗Ces prompts NE DOIVENT PAS être modifiés. |
![]() |
25.2 | 95 | |
![]() |
26.1 | 96 | Vous pouvez définir un prompt personnalisé sur le même modèle en conservant les dernières lignes : |
![]() |
25.2 | 97 | |
![]() |
26.1 | 98 | {{{request: |
99 | #/*REQUEST_CLIENT*/#}}} | ||
![]() |
25.2 | 100 | |
![]() |
26.1 | 101 | Afin d'être pris en compte, celui-ci doit se nommer //custom.prompt// et être placé dans le répertoire ///home/digdash/appdata/default/Enterprise Server/ddenterpriseapi/config.// |
102 | |||
![]() |
24.2 | 103 |