j'ai fait une formation sur l'IA. NOtamment sur les prompts c'était sympa. Cela permet d'ouvrir nos chakras. J'utilise assez souvent l'IA sur les stratégies achat, le sourcing, la recherche de fournisseurs, recherche juridique ou rédaction de clauses. C'est une belle aide qu'on doit contrôler et améliorer/compléter.
Pas encore pu utiliser l'IA sur l'anlayse des offres car malheureusement c'est soumis à RGPD au sein de notre boîte et ils veulent pas...faudrait que je caviarde tout. Pas encore eu le temps.
l'IA va permettre d'accélérer les pratiques je pense. C'est top.
Ce que je conseille, :
- Suivre les deux vidéos d'Andrej Karpathy ci après même si elles commencent à dater (sur les produits (tout va vite) car sur le fond elles sont exceptionnelles.
Ne pas hésiter à diminuer un peu la vitesse de la video.Car même si vous avez un bon niveau en anglais, il parle vite et de façon plutôt dense. - Puis de mettre les mains dans le cambouis, en recherchant des exemples etc.
Andrej Karphathy est ultra compétent. Il a été membre fondateur d'OpenAI (2015), puis directeur principal de l'IA chez Tesla (2017-2022).
Et il a une vraie préoccupation pédagogique : après être brièvement repasser par OpenAI, il a crée Eureka Labs, qui développe des projets pédagogiques batis sur de l'IA .2025-02-05 Deep Dive into LLMs like ChatGPT (https://www.youtube.com/watch?v=7xTGNNLPyMI)This is a general audience deep dive into the Large Language Model (LLM) AI technology that powers ChatGPT and related products. It is covers the full training stack of how the models are developed, along with mental models of how to think about their "psychology", and how to get the best use them in practical applications. I have one "Intro to LLMs" video already from ~year ago, but that is just a re-recording of a random talk, so I wanted to loop around and do a lot more comprehensive version.
Chapters
00:00:00 introduction
00:01:00 pretraining data (internet)
00:07:47 tokenization
00:14:27 neural network I/O
00:20:11 neural network internals
00:26:01 inference
00:31:09 GPT-2: training and inference
00:42:52 Llama 3.1 base model inference
00:59:23 pretraining to post-training
01:01:06 post-training data (conversations)
01:20:32 hallucinations, tool use, knowledge/working memory
01:41:46 knowledge of self
01:46:56 models need tokens to think
02:01:11 tokenization revisited: models struggle with spelling
02:04:53 jagged intelligence
02:07:28 supervised finetuning to reinforcement learning
02:14:42 reinforcement learning
02:27:47 DeepSeek-R1
02:42:07 AlphaGo
02:48:26 reinforcement learning from human feedback (RLHF)
03:09:39 preview of things to come
03:15:15 keeping track of LLMs
03:18:34 where to find LLMs
03:21:46 grand summary
2025-02-27 HOW I USE LLMs (https://www.youtube.com/watch?v=EWvNQjAaOHw)The example-driven, practical walkthrough of Large Language Models and their growing list of related features, as a new entry to my general audience series on LLMs. In this more practical followup, I take you through the many ways I use LLMs in my own life.
Chapters
00:00:00 Intro into the growing LLM ecosystem
00:02:54 ChatGPT interaction under the hood
00:13:12 Basic LLM interactions examples
00:18:03 Be aware of the model you're using, pricing tiers
00:22:54 Thinking models and when to use them
00:31:00 Tool use: internet search
00:42:04 Tool use: deep research
00:50:57 File uploads, adding documents to context
00:59:00 Tool use: python interpreter, messiness of the ecosystem
01:04:35 ChatGPT Advanced Data Analysis, figures, plots
01:09:00 Claude Artifacts, apps, diagrams
01:14:02 Cursor: Composer, writing code
01:22:28 Audio (Speech) Input/Output
01:27:37 Advanced Voice Mode aka true audio inside the model
01:37:09 NotebookLM, podcast generation
01:40:20 Image input, OCR
01:47:02 Image output, DALL-E, Ideogram, etc.
01:49:14 Video input, point and talk on app
01:52:23 Video output, Sora, Veo 2, etc etc.
01:53:29 ChatGPT memory, custom instructions
01:58:38 Custom GPTs
02:06:30 Summary