Тёмный

Le Rôle de la Génération Augmentée de Récupération (RAG) en IA 

Parlons IA avec Louis-François Bouchard
Подписаться 1,9 тыс.
Просмотров 5 тыс.
50% 1

Comment réduire les hallucinations en IA? Avec du RAG!
►Twitter : / whats_ai
Notre cours gratuit « Gen AI 360 Foundational Model Certification » (Fait en collaboration avec Activeloop, Towards AI, et l’Intel Disruptor Initiative): learn.activeloop.ai/courses
►Notre Newsletter en Français! Des solutions applicable au monde réel pour des problèmes du monde réel: parlonsia.substack.com/
#ia #intelligenceartificielle #rag

Наука

Опубликовано:

 

30 янв 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 15   
16 дней назад
Excellent, je m'intéresse au sujet depuis très peu, et je veux me former sur comment mettre en place un RAG, de plus je crois vraiment au modèle de meta avec leur orientation opensource. un Grand merci pour ce contenu
@user-ui6sz4kt2r
@user-ui6sz4kt2r 4 месяца назад
Merci pour la vidéo. il me tarde de voir l'implémentation, dommage que ça pas en français. Merci encore pour cette fine explication
@MrJerry42
@MrJerry42 3 месяца назад
Super vidéo et un bonjour de Belgique
@Whatsai_fr
@Whatsai_fr 3 месяца назад
Merci! 😊🖐️
@cgc2300
@cgc2300 Месяц назад
Super malgré tout avec mon petit niveau j'ai du mal à comprendre, il y a un an dans les vidéos de présentation on lui disait que gpt4 peut passer le test des plus grands avocats barreau de New York, donc ça c'est dans sa base de données ? Le 3.5 n'est pas capable de passer le test car il n'a pas toutes les infos dans sa base de données mais le 4 lui est capable ?
@Whatsai_fr
@Whatsai_fr Месяц назад
En fait GPT-4 n'est pas seulement meilleur parce qu'il "a plus d'informations dans sa base de données", mais plutôt parce qu'il a une architecture plus avancée (plus de paramètres, plus gros surtout) qui lui permet de traiter et de comprendre les informations de manière plus efficace et précise! On ne peut pas savoir pour sur, mais la base de données utilisé est surement similaire dans leur deux cas. Sauf que GPT-4 est plus gros et peut "retenir" plus d'information. Aucun des deux n'utilisent de base de données tel quel pour le test que tu as mentionné, et donc pas de RAG. C'était uniquement le modèle par défaut qui a été entraîné sur un peu tout internet comme base de donnée initiale (en gros), mais n'y ont plus accès à la suite de cet entraînement. Il s'avère juste que GPT-4 est plus gros (donc demande plus de capacité de calculs et de coûts), et donc peut retenir mieux l'information et mieux comprendre notre monde :)
@cgc2300
@cgc2300 Месяц назад
@@Whatsai_fr Dans lequel je lui explique d'abord qui je suis, quel est mon niveau, ce que j'aimerais faire, ce que j'attends de chatgpt, comment j'aimerais qu'il m'écrive des tutoriels, c'est-à-dire que ceux là s'adressent à quelqu'un à mon niveau, il peut me poser les questions nécessaires pour me donner un tutoriel compréhensible pour un débutant comme moi, Je lui demande de m'expliquer tout d'abord comment on crée un GPT, les fonctions knowledges et actions ? comment les utiliser et pourquoi en fonction de chaque question que je lui pose , de chaque thème Pour que je puisse bien comprendre quel est l'intérêt d'ajouter une petite base de données et des actions lors de la création de mes GPT, est-ce que c'est grâce à ça que ça rend les réponses du chat , les tutos , plus pertinent? pour que je comprenne bien je lui demande à chaque fois de me donner également un maximum d'exemples, d'analogies, et surtout de schémas, d'images pourquoi ajouter une petite base de données quand alors qu'il a accès au Web et donc à une base de données de 100 milliards de données, ce que n'ont pas les intelligences humaines les plus avancées au monde ? - si je souhaite lui donner accès à mon site pour qu'il puisse me faire des commentaires et des améliorations, ai-je besoin d'ajouter une action ? j'ai cru comprendre que je pouvais simplement lui donner le lien vers mon site ? et également pour chacune des questions que je lui pose de m'expliquer quel est l'intérêt d'utiliser un logiciel de automatisation comme n8n, là encore si il pouvait me citer des exemples d'utilisation , pour mes questions mais pas que - je reprends le thème des API, je regarde plein de vidéos pour essayer de comprendre comment intégrer des applications dans Google sheet ou ce qu'il m'est possible de faire en intégrant plusieurs applications ensemble comme je l'avais fait avec Google sheet est l'API de chatgpt sauf que je l'avais fait avec un module google sheet, je voudrais désormais essayer de comprendre comment est-ce que je peux le faire sans module et aussi je voudrais essayer de comprendre quelle est la différence avec l'intégration d'API lorsque je crée un GPT, j'essaie de trouver un site pour lire des exemples et donc comprendre j'aurais aimé que le chat me dise si il serait plus pertinent de lui constituer une petite base de données de ces lien youtube de ces vidéos pour l'aider à me faire des tutos adapté à mon niveau ou alors est-ce qu'il faut simplement créer un GPT et lui donner tous les liens , toutes les URL des vidéos ? comment faire pour rendre ces réponses plus pertinentes ? il y a des générateur de prompt mais il n'y a pas de générateur de GPTs ? il y a une extension Chrome qui me permet de résumer les vidéos RU-vid, y a-t-il moyen de savoir comment celle-ci est faite afin que je puisse faire la même chose et ainsi comprendre plus comment créer des GPTs? Ceci est un échantillon de mon prompt de 40 km de long
@36_GanG
@36_GanG 3 месяца назад
Bonjour et merci pour l'explication . Avez-vous l'intention de traduire les deux cours sur les modèles LLM ainsi que le RAG ?
@Whatsai_fr
@Whatsai_fr 3 месяца назад
On travail en fait sur un cours complet de RAG avec towards ai et il sera disponible en français, oui! :)
@user-ui6sz4kt2r
@user-ui6sz4kt2r 4 месяца назад
il n'y a aucun dans la description de la vidéo. pouvez-vous me les donner en commentaire svp
@Whatsai_fr
@Whatsai_fr 4 месяца назад
Oh merci pour le rappel, je l’ai ajouté en description et le voici: Notre cours gratuit « Gen AI 360 Foundational Model Certification » (Fair en collaboration avec Activeloop, Towards AI, et l’Intel Disruptor Initiative): learn.activeloop.ai/courses/rag
@user-ui6sz4kt2r
@user-ui6sz4kt2r 4 месяца назад
Merci 😇@@Whatsai_fr
@JeromeFortias
@JeromeFortias 3 месяца назад
RAg est une stratégie peu efficace couteuse et surtout voué à l'échec. Déjà parce que le R de RAG est hyper complexe à mettre en oeuvre. De plus pourquoi pas combiner plutot des approches OLD SCHOOL avec des LLMs... Et pour finir à quoi cela sert réellement, déjà le chatbot mais surtout le RAG ... Un google d'entreprise, un bon moteur de recherche est plus efficace.
@Whatsai_fr
@Whatsai_fr 3 месяца назад
Tu diras à OpenAI, à Anthropic et Google lui-même que c’est plus efficace et d’arrêter d’investir autant dans des chatbot ! Un moteur de recherche c’est du retrieval. La partie génération rend ça beaucoup plus efficace si ça te permet de ne plus avoir toutes les informations sauvegardées à aller chercher et streamer à l’utilisateur. Si tu peux juste générer ça directement au lieu de “retrieve”, ça peut être bien plus efficace en tant que resource. Et je ne comprends pas la plus part des points puisqu’il y a énormément d’avantages clairs qui fait qu’un chatbot est largement mieux qu’un moteur de recherche. Avoir quelque chose basé sur le RAG permet de limiter les hallucinations du chatbot et de (pour le moment) l’aider avec des sujets qu’on a pas pu l’entraîner avec. Que ce soit à cause que les données étaient privées et faute de ressources et talent pour entraîner soi-même un modèle ou toute autre raison. En plus de cela, c’est très efficace et assez peu coûteux de faire du RAG, et ça ne fait que s’améliorer. Les moteurs de recherches seront tous transformés.
@gillesbousquet195
@gillesbousquet195 Месяц назад
@@Whatsai_fr Après des mois d'utilisation quotidienne (copilot ,chatGPT, copilot github, api openai ..) je vois deux avantages décisifs. Aucun des deux n'est purement technique , c'est plus dans l'expérience utilisateur et le confort de travail qu'on voit la différence. 1)le langage naturel et la conversation proche de celle d'un humain est beaucoup agréable, sauf peut-être pour les addicts à la ligne de commande façon linux, que de sélectioner et entrer des mots clés 2)la capacité de synthèse et de filtrage des sources : dans une réponse google à l'ancienne, on doit d'abord identifier les meilleurs liens de réponse, puis, pour un lien donné, lire et évaluer la réponse. Pour des questions classiques, qui ne cherchent pas à piéger le LLM juste pour le fun , le chat avec un LLM est un gain de temps, et surtout un confort. Je ne passe par Google search ou stackoverflow que si je sens que je me suis rapproché avec copilot githyb de la fameuse "frontière déchiquetée" du LLM, quand il n'arrive pas à avouer qu'il ne sait pas et qu'il te balade avec des hallucinations convaincantes. Le RAG délimite les sources- comme les google search internes - mais il a en plus les deux points cités plus hauts.
Далее
RAG Explained
8:03
Просмотров 50 тыс.
What is Retrieval-Augmented Generation (RAG)?
6:36
Просмотров 593 тыс.
How to Improve LLMs with RAG (Overview + Python Code)
21:41
What is LangChain?
8:08
Просмотров 164 тыс.
Так ли Хорош Founders Edition RTX 4080 ?
13:00
899$ vs 360$ which one will you choose ? #iphone #poco
0:18