Code source wiki de Intelligence artificielle

Modifié par Aurelie Bertrand le 2025/03/21 16:53

Masquer les derniers auteurs
Aurelie Bertrand 28.1 1 {{ddtoc/}}
2
3 ----
4
Aurelie Bertrand 6.1 5 Cette section permet de configurer les options pour les fonctionnalités utilisant l'intelligence artificielle : l'[[enrichissement des données avec des données ouvertes>>doc:Digdash.user_guide.studio.open_data.WebHome]] et la génération d'une fonction de transformation.
Aurelie Bertrand 2.2 6
Aurelie Bertrand 23.1 7 [[image:IA_FR.png]]
Aurelie Bertrand 8.1 8
Aurelie Bertrand 2.2 9 = Données ouvertes =
Aurelie Bertrand 2.3 10
Aurelie Bertrand 8.1 11 Vous pouvez activer ici la [[fonctionnalité de données ouvertes>>doc:Digdash.user_guide.studio.open_data.WebHome]]:
Aurelie Bertrand 2.3 12
Aurelie Bertrand 3.1 13 * Cochez la case **Activer la fonctionnalité de données ouvertes**.
14 ➡ La commande** Enrichir avec des données ouvertes** est alors disponible dans le menu contextuel des modèles de données.
Aurelie Bertrand 23.1 15 [[image:Enrich_data_FR.png||height="682" width="957"]]
Aurelie Bertrand 3.1 16
Aurelie Bertrand 2.3 17
Aurelie Bertrand 4.1 18 Il est également possible de détecter automatiquement si des données ouvertes compatibles avec vos données sont disponibles, à la création de votre modèle de données. Pour cela:
19
20 * Cochez la case **Activer la fonctionnalité de données ouvertes à la création d'un modèle de données.**
21 ➡ Si des données ouvertes compatibles avec vos données sont disponibles, elles vous seront proposées lors de la création de votre modèle de données (après clic sur le bouton **Terminer** lors de la configuration du modèle de données dans le Studio).
Aurelie Bertrand 5.2 22
23 Le champ **L'identifiant du rôle contenant les modèles de données ouvertes **contient l'identifiant du rôle dédié aux modèles de données ouvertes **Digdash Open Data**.
Aurelie Bertrand 7.1 24
Aurelie Bertrand 8.1 25 = LLM (Grand modèle de langage) =
26
Aurelie Bertrand 19.1 27 Vous pouvez activer et spécifier ici le LLM (grand modèle de langage) utilisé pour l'assistant AI permettant [[la génération de fonctions de transformation>>doc:Digdash.user_guide.studio.Create_datamodel.transform_data.transform_data_tab.WebHome||anchor="IA"]].
Aurelie Bertrand 8.1 28
29 1. Cochez la case **Activer le LLM**.
30 1. Sélectionnez le **Fournisseur LLM **dans la liste déroulante.
Aurelie Bertrand 13.2 31
32 (% class="box infomessage" %)
33 (((
Aurelie Bertrand 23.3 34 Le fournisseur LLM **Ollama** nécessite une installation en local. Vous pouvez consultez la documentation Ollama [[https:~~/~~/github.com/ollama/ollama/>>https://github.com/ollama/ollama/]] pour plus de détails.
Aurelie Bertrand 13.2 35 )))
36
Aurelie Bertrand 15.1 37 (% start="3" %)
Aurelie Bertrand 11.1 38 1. Renseignez les éléments suivants :(((
Aurelie Bertrand 27.1 39 |=(% style="width: 181px;" %) |=(% style="width: 286px;" %)OpenAI|=(% style="width: 363px;" %)Google Gemini|=(% style="width: 482px;" %)Ollama
40 |=(% style="width: 181px;" %)**URL du serveur**|(% style="width:286px" %)https:~/~/api.openai.com|(% style="width:363px" %)(((
Aurelie Bertrand 11.1 41 https:~/~/generativelanguage.googleapis.com/v1beta/models///nom_du_modèle//
42
Aurelie Bertrand 13.2 43 L'URL contient le modèle utilisé par Gemini. Ainsi,// nom_du_modèle //est à remplacer par le nom du modèle choisi. Par exemple: 
Aurelie Bertrand 13.1 44 https:~/~/generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash-latest:generateContent
Aurelie Bertrand 11.1 45
46 Cliquez sur le lien suivant pour consulter la liste des modèles disponibles:
47 [[https:~~/~~/ai.google.dev/gemini-api/docs/models/gemini?hl=fr>>https://ai.google.dev/gemini-api/docs/models/gemini?hl=fr]]
Aurelie Bertrand 27.1 48 )))|(% style="width:482px" %)(((
Aurelie Bertrand 23.2 49 Entrez l'URL du serveur sous la forme suivante :
50 //http:~/~/[serveur]:[port]
51 Par exemple : //[[http:~~/~~/lab1234.lan.digdash.com:11434>>http://lab3090.lan.digdash.com:11434]]
52
53
Aurelie Bertrand 11.1 54 )))
Aurelie Bertrand 27.1 55 |=(% style="width: 181px;" %)**Clé d'API**|(% style="width:286px" %)(((
Aurelie Bertrand 11.1 56 Entrez votre clé API.
57
Aurelie Bertrand 17.1 58 Consultez le paragraphe [[Configurer une clé API OpenAI>>doc:.LLM_API_key.WebHome||anchor="OpenAI"]] si besoin.
Aurelie Bertrand 27.1 59 )))|(% style="width:363px" %)(((
Aurelie Bertrand 11.1 60 Entrez votre clé API.
61
Aurelie Bertrand 17.1 62 Consultez le paragraphe [[Configurer une clé API Gemini>>doc:.LLM_API_key.WebHome||anchor="Gemini"]] si besoin.
Aurelie Bertrand 27.1 63 )))|(% style="width:482px" %)Ollama ne nécessite pas de clé API.
64 |=(% style="width: 181px;" %)**Modèle**|(% style="width:286px" %)(((
Aurelie Bertrand 23.3 65 Entrez le nom du modèle choisi.
66 Par exemple, gpt-3.5-turbo.
Aurelie Bertrand 11.1 67
68 Cliquez sur le lien suivant pour consulter la liste des modèles disponibles:
69 [[https:~~/~~/platform.openai.com/docs/models>>https://platform.openai.com/docs/models]]
Aurelie Bertrand 27.1 70 )))|(% style="width:363px" %)(((
Aurelie Bertrand 11.1 71 Le modèle n'est pas renseigné ici mais directement dans l'URL du serveur.
Aurelie Bertrand 23.3 72 Le champ doit rester vide.
Aurelie Bertrand 27.1 73 )))|(% style="width:482px" %)(((
Aurelie Bertrand 23.3 74 Entrez l'identifiant du modèle.
75
Aurelie Bertrand 23.2 76 Nous recommandons les modèles suivants :
77
Aurelie Bertrand 25.2 78 * **Codestral 22B** : LLM spécialisé dans la génération de code (petit modèle performant).
Aurelie Bertrand 29.1 79 Avec le niveau de [[quantization>>https://huggingface.co/docs/optimum/concept_guides/quantization]] Q4_K_M, l'identifiant est alors //codestral:22b-v0.1-q4_K_M//
Aurelie Bertrand 23.3 80
81 * **Llama 3.3 70B **: LLM généraliste pouvant répondre à des tâches générant du code.
Aurelie Bertrand 29.1 82 Avec le niveau de [[quantization>>https://huggingface.co/docs/optimum/concept_guides/quantization]] Q4_K_M, l'identifiant est alors //llama3.3:70b-instruct-q4_K_M//
Aurelie Bertrand 23.3 83
84 Cliquez sur le lien suivant pour consulter la liste des modèles disponibles:
85 [[https:~~/~~/ollama.com/search>>https://ollama.com/search]]
Aurelie Bertrand 11.1 86 )))
87 )))
Aurelie Bertrand 8.1 88 1. Cliquez sur **Enregistrer**.
Aurelie Bertrand 10.1 89
90 Pour revenir aux valeurs par défaut, cliquez sur **Réinitialiser**.
Aurelie Bertrand 24.2 91
92 == Paramétrage des prompts ==
93
Aurelie Bertrand 26.1 94 Les prompts (ou instructions) utilisés par défaut pour la génération de transformations de données sont stockés dans le répertoire ///home/digdash/webapps/ddenterpriseapi/WEB-INF/classes/resources/llm.// Il existe un prompt pour chaque fournisseur. ❗Ces prompts NE DOIVENT PAS être modifiés.
Aurelie Bertrand 25.2 95
Aurelie Bertrand 26.1 96 Vous pouvez définir un prompt personnalisé sur le même modèle en conservant les dernières lignes :
Aurelie Bertrand 25.2 97
Aurelie Bertrand 26.1 98 {{{request:
99 #/*REQUEST_CLIENT*/#}}}
Aurelie Bertrand 25.2 100
Aurelie Bertrand 26.1 101 Afin d'être pris en compte, celui-ci doit se nommer //custom.prompt// et être placé dans le répertoire ///home/digdash/appdata/default/Enterprise Server/ddenterpriseapi/config.//
102
Aurelie Bertrand 24.2 103