Grand Oral IA tertiaire
Publié le 21/06/2024
Extrait du document
«
Intro :
Le 14 mai 2024, l’entreprise Open AI, cofondé par Elon Musk et Sam Altman lance Chat GPT 4.0,
la version la plus récente du programme.
Plus rapide, avancée et capable de traiter de plus
importantes quantités de données, Chat GPT ne reste qu’un exemple parmis les inombrables
programmes d’intelligences artificielles ayant trouvés leur place dans notre société.
Tous trouve leur base dans des concepts mathématiques simples qui ont engendrés plusieurs
changements de structure et de fonctionnement au cours de leur histoire.
Ainsi, l’arrivée des intelligences artificielles sur le marché du travail et leur application à l’échelle
industrielle ces dernières années est comparable à la révolution industrielle introduite par les
machines à vapeur.
La tertiarisation des emplois depuis les années 80 explique donc un impact plus prononcé des IA sur
ce secteur, considérablement plus impacté que les autres car majoritaire dans le marché de l’emploi.
Cela ne suffit toutefois pas à expliquer de nombreux éléments qui nous amènent à nous
questionner : Comment se sont développer Les IA ? Quels concepts ont permis leurs
perfectionnement ? Dans quel mesure l’arrivée d’une telle technologie dans l’industrie impacte la
chaîne de production ? Mais surtout, Dans quelle mesure le développement mathématique des IA au
cours du temps à impacté le marché du travail ?
Afin d’apporter des éléments de réponse à une telle problématique, il est nécessaire d’aborder dans
un premier temps le développement des IA, puis enfin les effets d’une telle technologie sur le
marché du travail.
1)A)Le développement des intelligences artficielles
Intelligences dites artficielles qui naissent dés l’antiquité dans des mythes comme
celui du golem, un être dénué de parole mais capable de réflexion et qui à pour
objectif de défendre son maître.
Toutefois, les premiers développement de l’intelligence artficielle telle qu’on la
connait remonte aux années 50 avec l’apparition des IAs utilisant des symboles et
structures de données ainsi que des logiques et langages formels ("Tous les hommes
sont mortels" peut être représentée en logique des prédicats par ∀x (Homme(x) →
Mortel(x))).
.
Une de leurs premières applications concrètes est le Logic Theorist, qui est un
programme informatique écrit en 1955 et 1956 par Allen Newell, Herbert Simon et
Cliff Shaw.
Il est considéré comme le premier programme d'intelligence artificiel et a
été capable de prouver 38 des 52 théorèmes des Principia Mathematica de Whitehead
et Russell.
Ces sytèmes possédent toutefois de nombreusent limites, car extrémement dépendant
de leur base de données et limités dans le traitements de données non structurées.
Cela explique par la suite le développement des réseaux neuronnaux, bien plus
rapides et capable de traiter d’importante quantités de données sous des formes plus
variées.
D'accord, imagine que ton cerveau est une immense toile d'araignée faite de millions
de petits nœuds appelés neurones.
Ces neurones se parlent les uns aux autres pour
t'aider à penser, apprendre et comprendre le monde autour de toi.
Les réseaux
neuronaux des intelligences artificielles (IA) fonctionnent de manière similaire.
Réseaux Neuronaux
• Neurones : Comme les neurones dans ton cerveau, les réseaux neuronaux d'IA ont de petits
nœuds appelés "neurones".
Ils sont organisés en couches.
• Couches : Il y a plusieurs couches de neurones.
La première couche prend les informations
de l'extérieur (comme une image ou un son).
Les couches suivantes traitent ces informations
petit à petit.
La dernière couche donne le résultat final (comme reconnaître un visage ou
comprendre une phrase).
• Connexions : Chaque neurone est connecté à d'autres neurones.
Les connexions entre eux
ont des "poids" qui déterminent combien d'importance donner à l'information reçue.
Apprentissage
• Apprendre : Apprendre pour une IA, c'est comme s'entraîner.
L'IA essaie de résoudre un
problème (comme reconnaître un chat dans une image) et ajuste ses connexions (ou poids)
chaque fois qu'elle fait une erreur, pour s'améliorer.
Deep Learning
• Profondeur : "Deep" (profond) signifie qu'il y a beaucoup de couches de neurones, pas
juste une ou deux.
Plus il y a de couches, plus l'IA peut apprendre des choses compliquées.
Exemple Simplifié
• Reconnaissance de Chats :
1.
Entrée : Tu montres à l'IA une image d'un chat.
2.
Couches Cachées : L'IA passe l'image à travers plusieurs couches.
Chaque couche
apprend des détails de plus en plus complexes (d'abord des lignes, puis des formes,
puis des parties du visage du chat).
3.
Sortie : La dernière couche dit "C'est un chat !" ou "Ce n'est pas un chat".
Mais il reste important de noter que pour fonctionner les réseaux neuronaux mais
surtout les IA ont utilisé de nombreux concepts mathématiques pour se développer et
se perfectionner au cours des années.
B)
Les IAs, pour se développer, gagner en possibilité d’utilisation et accélérer leur
apprentissage font appel à de nombreux concepts mathématiques.
1.
Algèbre Linéaire
• Vecteurs et Matrices :
• Vecteur : Une liste de nombres, par exemple (�,�)(x,y), peut représenter un point
dans un espace 2D.
En IA, un vecteur peut représenter les caractéristiques d'une
donnée.
En l’occurence, il peuvent permettre de représenter des données d’entrée
comme une image, les caractéristiques de cette données et les poids associés à celle ci
• Matrice : les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à
interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de
l'algèbre linéaire et même de l'algèbre bilinéaire.
En IA, les matrices sont utilisées pour les transformations et les opérations sur les
vecteurs.
Par exemple, dans les réseaux neuronaux, les poids sont souvent organisés
en matrices.
• Les poids et biais sont des variables du modèle qui sont mises à jour pour améliorer
la précision du réseau.
Un poids est appliqué à l’entrée de chacun des neurones pour
calculer une donnée de sortie.
Les réseaux de neurones mettent à jour ces poids de
manière continue.
Il existe donc une boucle de rétro-action mise en œuvre dans la
plupart des réseaux de neurones.
Les biais sont également des valeurs numériques
qui sont ajoutées une fois que les poids sont appliqués aux valeurs d’entrée.
Les
poids et les biais sont donc en quelque sorte des valeurs d’auto-apprentissage de nos
réseaux de neurones.
Considérez le poids comme une donnée capitale pour un neurone.
•
2.
Calcul Différentiel
• Dérivées :
• Concept : La dérivée d'une fonction �(�)f(x), notée �′(�)f′(x) ou ����dxdf, mesure le
taux de variation de �f par rapport à �x.
• Application en IA : Les dérivées sont utilisées pour optimiser les modèles d'IA.
Par
exemple, dans la descente de gradient, on utilise les dérivées pour ajuster les
paramètres afin de minimiser la fonction de coût (l'erreur du modèle).
La fonction de coût, également appelée fonction de perte, mesure l'erreur
entre les prédictions du modèle et les vraies valeurs.
L'objectif est de
minimiser cette fonction de coût pour que le modèle fasse des prédictions aussi
précises que possible.
Les gradients sont les dérivées partielles de la fonction de coût par rapport à
chaque paramètre du modèle.
Ils indiquent la direction et la vitesse à laquelle
la fonction de coût change lorsque les paramètres changent.
La descente de gradient est un algorithme d'optimisation utilisé pour trouver
les valeurs minimales de la fonction de coût en ajustant les paramètres du
modèle (poids et biais).
La descente de gradient utilise les dérivées pour ajuster les paramètres du
modèle de manière itérative.
Les gradients indiquent comment changer les
paramètres pour réduire l'erreur.
En répétant ce processus, le modèle apprend
à faire des prédictions plus précises.
• Trouver les Extremums :
• Concept : Pour trouver les maximums ou minimums d'une fonction, on utilise les
dérivées.
Les points où la dérivée est zéro (points critiques) sont analysés pour
déterminer s'ils sont des maximums, des minimums ou des points selles.
• Application en IA : La descente de gradient utilise ce principe pour minimiser la
fonction de coût.
On calcule les dérivées partielles de la fonction de coût par rapport
à
chaque paramètre et on ajuste les paramètres dans la direction opposée au gradient
pour réduire l'erreur.
3.
Probabilités
• Probabilités de Base :
• Concept : Le théorème de Bayes est l'un des principaux théorèmes de la théorie des
probabilités.
Il est aussi utilisé en statistiques du fait de son application, qui permet de
déterminer la probabilité qu'un événement arrive à partir d'un autre évènement qui s'est
réalisé, notamment quand ces deux évènements sont interdépendants.
Formule :P(A∣B)=P(B∣A)P(A) /P(B)
• Théorème de Bayes : Le théorème de Bayes est fondamental pour la
modélisation probabiliste en IA.
Il est utilisé dans de nombreux domaines
• Filtrage de contenu (comme les systèmes de recommandation).
• Reconnaissance d'image (comme la reconnaissance de chiffres écrits à la main).
Il s'appuie sur les probabilités conditionnelles et a priori pour mettre à jour les croyances
(probabilités) à la lumière de nouvelles données, ce qui en fait un outil puissant et flexible pour de
nombreuses applications en IA.
5.
Statistiques
• Moyenne et Variance :
• Moyenne : La somme des valeurs divisée par le nombre de valeurs, utilisée pour
trouver la tendance centrale.
• Variance : Mesure de la dispersion des données autour de la moyenne.....
»
↓↓↓ APERÇU DU DOCUMENT ↓↓↓
Liens utiles
- grand oral maths modèle malthusien
- Grand oral NSI: la voiture autonome la voiture de demain ?
- Grand oral 2024 : Approximation de racine carré de 2
- GRAND ORAL - méthodologie
- La musique se résume-t-elle aux mathématiques ? Grand Oral Mathématiques