You are currently viewing IA : Pourquoi Huawei ne croit pas à GPT-3

IA : Pourquoi Huawei ne croit pas à GPT-3

Sharing is caring!

Reading time: 4 Minutes

IA : Pourquoi Huawei ne croit pas à GPT-3

Quelle direction doit prendre l’intelligence artificielle (IA) de demain ? C’est une grande question qui accapare les scientifiques.

A l’occasion du WAICF, le salon international sur l’intelligence artificielle qui s’est tenu du 14 au 16 avril à Cannes, ZDNet s’est entretenu avec Balazs Kegl, data scientist et directeur de la recherche en IA chez Huawei à ce sujet.

Ce dernier s’intéresse à la relation entre humains et intelligences artificielles et à la manière de construire une IA qui pense comme un humain, plutôt qu’une IA qui exécute des règles de manière semi-intelligente.

« Comprendre et modéliser des systèmes »

Avant de rejoindre les rangs du géant chinois des télécoms, Balazs Kegl a fondé en 2014 un centre de datascience à Paris-Saclay. L’objectif de ce centre de recherche expérimental et interdisciplinaire consistait à développer des process pour accélérer l’adoption de l’IA dans des domaines scientifiques tels que la chimie et les neurosciences.

Quelques années plus tard, souhaitant se rapprocher de l’industrie, Balazs Kegl prend la direction en 2019 du centre de recherche en IA de Huawei, basé à Paris. Il fait partie d’un réseau mondial de laboratoires en intelligence artificielle, baptisé le Noah’s Ark Lab, engagé sur plusieurs thématiques transverses.

L’organisation travaille à « comprendre et modéliser des systèmes » tout en œuvrant en parallèle à « une vision à long terme » de l’IA, pour identifier « les technologies qui seront réutilisables d’un système à l’autre », indique le chercheur. Parmi les projets de recherche qui tiennent en haleine l’équipe de Balazs Kegl, il cite notamment un système de « data center cooling » (refroidissement des centres de données). « Nous prenons des projets pour inspirer nos briques technologiques », explique le chercheur. Et cela, pour « ancrer des briques technologiques dans de vrais projets du BU [Business Unit] », ajoute l’expert en IA.

La valeur d’abord

Sur la base de ces recherches, il soutient que dans tout projet d’IA, il est préférable de « commencer par la valeur pour avoir une motivation qui soit mesurable ». Autrement dit, « le plus concret est le mieux », assure Balazs Kegl. Pour lui, c’est donc ce raisonnement qui mènera à « la prochaine percée ».

Il estime par là même que le GPT-3, le logiciel d’OpenIA qui ingère des gigaoctets de texte et peut générer automatiquement des paragraphes entiers, « n’est pas la direction que doit prendre l’intelligence artificielle ». Le chercheur note que « la génération de texte est incroyable et très sophistiquée, mais c’est juste du sophisme. C’est comme si on avait déjà développé la faculté langage de notre intelligence future, mais il manque tout le reste : il n’y a pas de corps, pas de sentiment, pas d’action ».

Sa certitude, c’est que « ce que l’on voit sur la surface, c’est que l’IA pose plein de problèmes quand il interagit avec le vrai monde ». Pour Balazs Kegl, « il faut revenir à la fondation de l’IA pour que l’on puisse mettre la valeur en avant ». Pour ce faire, le responsable chez Huawei pense que la première étape consiste à trouver des systèmes « qui agissent et interagissent avec le monde physique ».

Changer de paradigme

Ses paroles résonnent avec un autre penseur de l’IA, Yann LeCun, qui a lui aussi fait le déplacement sur la croisette. A l’occasion d’une keynote devant une centaine de professionnels réunis, le chief AI Scientist chez Meta a présenté sa vision du futur de l’IA. Selon Yann LeCun, l’IA autonome de demain ne sera pas l’IA d’aujourd’hui « en plus grand », mais devra trouver racine dans un « nouveau concept ».

« Nous devons inventer un nouveau type d’apprentissage qui permettra à la machine d’apprendre comme l’homme ou l’animal. Par conséquent, cela nécessite une sorte de bon sens. Aucune IA aujourd’hui n’a un quelconque niveau de bon sens ou de conscience. Elle n’est pas ancrée dans la réalité. Nous devons lui permettre d’expérimenter le monde et de comprendre comment il fonctionne », estime Yann LeCun.

Comme son confrère, Balazs Kegl croit beaucoup en l’idée d’un « changement de paradigme » pour créer des machines vraiment intelligentes. Pour illustrer ses propos, il se dit « plus impatient » devant les voitures autonomes que devant GPT-3. « C’est là que la valeur trouve sa place », justifie-t-il, ne manquant pas de mentionner au passage, parmi les jalons de l’IA, l’impressionnante performante d’AlphaGo, l’intelligence artificielle développée par DeepMind qui est parvenue à battre les champions du monde du jeu de go en se basant sur l’apprentissage par renforcement.

Lors de sa keynote, Yann LeCun a souligné que l’un des plus grands défis de l’IA d’aujourd’hui était « d’apprendre une représentation du monde ». Et d’ajouter : « Nous devons concevoir une architecture capable de gérer le fait qu’il y a beaucoup de choses dans le monde qui peuvent être imprévisibles ou non pertinentes. » En admettant que « ce concept va être difficile à vendre », le scientifique de Meta estime que la communauté du machine learning doit « accepte(r) d’abandonner l’un des piliers du machine learning », à savoir « la modélisation probabiliste ».




Source link

Please follow and like us:
Pin Share

Laisser un commentaire