Nous utilisons des cookies pour vous fournir l'ensemble de nos services, notamment la recherche et les alertes. En acceptant, vous consentez à notre utilisation de ces cookies.
Choisir mes préférences
Cette formation sur l'IA générative s'adresse aux professionnels, développeurs, data
analysts, chefs de projet, consultants en IA, ou toute personne souhaitant comprendre
et comparer les IA génératives de texte.
1. Introduction aux modèles Deepseek, Qwen et Gemini (1h)
Présentation des trois modèles : origines, forces,
faiblesses, cas d'usage.
Comparaison avec GPT-4, Mistral, Claude et
d'autres modèles open-source.
IA open-source vs. IA propriétaire : quels critères
pour choisir son modèle ?
2. Expérimentation des modèles via OpenRouter et API (1h30)
Introduction à OpenRouter : qu’est-ce que c’est
et pourquoi l’utiliser ?
Comparer les performances des modèles en faisant des requêtes API.
Cas pratique : envoi d’une même requête à différents modèles et comparaison des réponses.
Présentation des outils pour tester les appels
API: Postman, Python (requests), OpenRouter
Playground.
3. Confidentialité et gestion des données (1h)
Quelles données sont enregistrées par ces modèles ?
Modèles hébergés dans le cloud vs exécution en
local : quels enjeux ?
Chiffrement, anonymisation et bonnes pratiques
de protection des données.
Cas d’usage où éviter les IA SaaS et privilégier
des solutions locales.
4. Automatisation avec Make : quand et comment
intégrer les modèles IA ? (1h)
Présentation de Make pour automatiser les workflows IA.
Exemples d’automatisations : Génération automatique de résumés via OpenRouter. Envoi de réponses AI dans un CRM ou un document partagé. Connexion de Make avec Notion, Google Docs, Slack.
Cas pratique : création d'un scénario automatisé avec un modèle IA.
5. Faire tourner ses propres IA en local : LM Studio et Ollama (1h30)
Pourquoi exécuter un modèle en local ?
Confidentialité maximale.
Performances : éviter la latence d’une API distante.
Coût zéro après installation. Présentation des outils :
LM Studio : interface simple pour exécuter des modèles open-source.
Ollama : gestion et exécution simplifiée de modèles IA
en local.
Cas pratique : tester un modèle open-source en local et l'interfacer avec un script Python.
6. Comparatif final et recommandations d’usage (1h)
Synthèse des performances et avantages de Deepseek, Qwen, Gemini.
Quel modèle pour quel besoin ?
Résumé de texte Assistance à la rédaction Génération de code
Traduction et reformulation Discussion interactive : quel modèle adopter en
entreprise ou pour un usage personnel ?
7. Questions / Réponses et bilan avec la méthode KISS
(30 min)
Ce que les participants vont garder (Keep), améliorer
(Improve), commencer (Start) et arrêter (Stop).
Élaboration d’un plan d’action individuel : quelle IA
intégrer demain dans son workflow ?
Connaissance de base des IA génératives. Une familiarité avec les API et
l'automatisation est un plus.
Choisissez une date pour pouvoir réserver !
Voir plus
Infos
Trouver le bon CACESComprendre l'habilitation éléctriqueMentions légalesConditions d'utilisationNous utilisons des cookies pour vous fournir l'ensemble de nos services, notamment la recherche et les alertes. En acceptant, vous consentez à notre utilisation de ces cookies.
Choisir mes préférences