Curriculum du cours

    1. Vidéo : Introduction à l'Unité d'Enseignement UE17-IA_CO

    2. Durée de la formation (15h)

    3. Objectifs pédagogiques

    4. Plan (carte heuristique) du cours

    5. Prérequis

    6. Méthode d'évaluation

    1. Session AUF - UPR1 - UPNIP_UPSAC - Session 1 - Le mercredi 20 novembre 2024 (Durée ~ 2h07mn)

    2. Session AUF - UPR1 - UPNIP_UPSAC - Session 2 - Le mercredi 27 novembre 2024 (Durée ~ 1h10mn)

    1. Leçon 1 - Rappel de l'histoire et thématiques propres à l'IA

    2. Leçon 2 - Les personnages clés et les étapes importantes

    3. Leçon 3 - Pionniers et réseaux neuronaux

    4. Leçon 4 - La montée de l'apprentissage profond ("Deep Learning")

    5. Leçon 5 - ETAPE IMPORTANTE : AlphaGo et les tâches intuitives complexes

    6. Leçon 6 - ETAPE IMPORTANTE : BERT et les tâches liées au langage naturel

    7. Leçon 7 - La voie vers l'AGI ("Artificial General Intelligence")

    8. Leçon 8 - L'avènement de l'ASI ("Artificial Super Intelligence")

    9. Leçon 9- Alignement et implications futures

    10. Leçon 10 - L'échelle de Richter de la disruption technologique (Zvi Mowshowitz)

    11. Quiz chapitre 2 - Histoire de l'IA et évolutions des techniques associées

    1. Leçon 1 - Quelques principes à intégrer dès maintenant et erreurs classiques

    2. Leçon 2 - Introduction

    3. Leçon 3 - Les types d'IAs

    4. Leçon 4 - Les technologies permettant aux machines d'apprendre

    5. Leçon 5 - Terminologie liée aux IAs génératives

    6. Leçon 6 - Les défauts des IAs génératives

    7. Leçon 7. Un raccourci : les "Foundational Models"

    8. Leçon 8. L'écosystème construit autour des Intelligences Artificielles Génératives (IAGs)

    9. Leçon 9 - La technique "Retrieval augmented Generation" ou RAG

    10. Leçon 10 - Quelques applications des IAs Génératives

    11. Leçon 11 - Les facteurs d'adoption de l'IA dans une organisation

    12. Quiz chapitre 2 - Vocabulaire

    1. Leçon 1 - Réseaux neuronaux : quelques principes semi-intuitifs de fonctionnement

    2. Leçon 2 - Réseaux neuronaux : la vision par ordinateur

    3. Leçon 3 - Réseaux neuronaux : la difficulté de la reconnaissance de formes pour un algorithme

    4. Leçon 4 - Réseaux neuronaux : l'expérience de Donald Michie, 1961, jeu de Tic-Tac-Toe

    5. Leçon 5 - Le neurone artificiel

    6. Leçon 6 - Amener le neurone à réaliser des prédictions

    7. Leçon 7 - Construction d'une porte XOR

    8. Leçon 8 - Classification

    9. Leçon 9 - Les neurones de type sigmoide

    10. Leçon 10 - L'entrainement d'un neurone unique

    11. Leçon 11 - Les couches cachées ("Hidden Layers")

    12. Leçon 12 - Ajustement de courbe ("curve fitting")

    13. Leçon 13 - Le théorème d'approximation universelle

    14. Leçon 14 - Un ANN pour la reconnaissance de formes

    1. Leçon 1 - Les "Transformers"

    2. Leçon 2 - Architecture générale d'un "Transformer" - Encodeur et Décodeur _ Couches Entrée et Sortie

    3. Leçon 3 - Parallélisation du traitement

    4. Leçon 4 - Calcul des vecteurs "Query", "Keys" et "Values"

    5. Leçon 5 - Calcul du score, division du score par 8 et Softmax

    6. Leçon 6 - Multiplication des vecteurs par le score Softmax (pondération des vecteurs notés VP)

    7. Leçon 7 - Sommation pondérée des vecteurs

    8. Leçon 8 - Attention multi-têtes

    9. Leçon 9 - Encodage positionnel pour représenter l'ordre de la séquence

    10. Leçon 10 - Création de notre propre Modèle de Langage (LM)

    11. Leçon 10.1 - Téléchargement du livre intitulé "Essais - Montaigne" (Source : Projet Gutenberg)

Informations sur ce cours

  • 102 leçons