Explorance 2025: IA, IAG, SIA… pourquoi l’humain reste la pièce maîtresse

A- A+
lu
exp

Explorance est une société québécoise qui développe une solution logicielle qui simplifie la collecte et l'analyse des commentaires des étudiants et des employés. Grâce à l'analyse du feedback et l'IA, elle transforme les données en actions concrètes et renforce l'engagement, la rétention et la croissance organisationnelle.

Tous les ans, elle organise Explorance World 2025, la conférence de la mesure et de l’expérience apprenante qui a réuni des délégués venus des quatre coins du monde à Montréal. 

L'enseignement supérieur n’est pas mon terrain de jeu quotidien. Mais quand un événement réunit des profs australiens, des responsables qualité du Michigan et une nuée de geeks suédois prêts à débattre d’IA dans le domaine de l'éducation et des entreprises, je lève la main pour les écouter ! 

Le programme est très dense et il est impossible de tout couvrir dans un article. Il y a un échange que je ne voulais pas manquer, c’est celui entre Charlie Kawwas, président de Broadcom et Samer Saab, le fondateur d'Explorance. Leur discussion sur l’intelligence artificielle, entre prouesses techniques et considérations humaines méritait que je vous en fasse un compte rendu.

Une IA avec son 2ndaire 5 qui veut déjà son doctorat

Charlie Kawwas a planté le décor : l’IA d’aujourd’hui (principalement l'IA générative), a le niveau d’une personne étudiante au secondaire. D’ici deux à cinq ans selon lui, on atteindra l’IAG, l’intelligence artificielle générale. On pourra la comparer alors à une personne doctorante qui comprend, apprend, et s’adapte à tout contexte, sans qu’on doive le spécialiser. C’est une simple courbe d’évolution, qui grimpe vite.

Le secret ? Des puces qui font régime minceur… en nanomètres

Ce qui rend cette accélération possible ? La microtechnologie. Les ingénieurs réduisent la taille des transistors à une vitesse foudroyante. En l’espace d’un an, on est passé de puces gravées en 5 nanomètres (unité de mesure à l'échelle atomique) à 3 nanomètres. Chaque saut double ou triple la puissance de calcul sans prendre plus de place. Résultat : une explosion de la capacité de calcul, qui alimente à son tour l’apprentissage des IA. Les géants du secteur (Google, Meta, Microsoft, OpenAI...) investissent donc massivement dans l’infrastructure.

En 2024, ces entreprises ont injecté 237 milliards de dollars dans leurs centres de données et leur grappe de serveurs IA. En 2025, on attend plus de 320 milliards.

De l’IAG à l’ASI : le frisson de la superintelligence

La prochaine étape, c’est l’ASI (ou SIA): la Super Intelligence Artificielle. Ce sera une IA qui ne serait pas juste compétente ou polyvalente, mais supérieure à toute intelligence humaine. Samer Saab en a d'ailleurs soulevé l’ambivalence : d’un côté, un potentiel immense (guérison de maladies, innovations radicales), de l’autre, une perte de contrôle possible, et des conséquences imprévisibles.

Les intervenants s’accordent sur un point : on ne peut pas avancer sans mettre l’éthique au cœur du jeu.

Travail : licencier les tâches, pas les gens
Pas de panique selon Charlie Kawwas : l’histoire montre que chaque révolution technique crée plus d’emplois qu’elle n’en détruit. L’IA n’a pas vocation à remplacer l’humain, mais bien de l’augmenter. Il a cité quelques exemples concrets : automatiser les tests de code pour libérer les ingénieurs, analyser des données complexes pour mieux orienter les décisions, proposer des assistants conversationnels pour soulager les équipes de support.

Le message est clair : les métiers vont évoluer, mais l’humain reste indispensable,  surtout pour donner du sens, poser les bonnes questions, et gérer les exceptions.

L’éthique et la protection des données

Impossible de parler d'IA sans parler d’éthique et de souveraineté des données. 

Comment garantir que nos informations sensibles (et notre propriété intellectuelle) ne soient pas exposées aux géants technologiques ? Pour les entreprises non américaines, la vigilance est d’autant plus importante.

Les pistes évoquées :

  • Définir clairement ce qui peut ou non être utilisé pour l’entraînement des modèles.
  • Utiliser des systèmes infonuagiques de confiance ou des serveurs locaux pour les données critiques.
  • Renforcer les politiques de gouvernance interne autour de l’IA.

Pour que l'IA fonctionne, ça prend un humain

En conclusion, les deux intervenants s’accordent : aussi puissants soient les algorithmes, rien ne fonctionne sans intervention humaine. Il faut former, sensibiliser, encadrer. L’IA peut libérer du temps, mais elle exige aussi qu’on l’oriente, qu’on la questionne, qu’on sache quand lui faire confiance… et quand lui dire non.

Ce n’est pas un détail. C’est toute la différence entre une technologie efficace et une transformation réussie.

Et pour passer de la théorie au plan d’action, voici quelques idées rapportées sous forme de tableau:

ActionQui ?Date limite (optimiste)
Tester un assistant IA sur un vrai flux : support client, sourcing candidats, contrôle qualitéToutes les équipes curieusesHier, mais demain ça marche aussi
Signer une offre entreprise (Gemini, GPT-Enterprise, etc.) pour sécuriser les donnéesTI & Légal main dans la mainT3 2025
Généraliser l’IA de test de code pour réduire les bugs de 30 %IngénierieFin 2025
Former tout le monde à «parler IA» : prompts, vérification, biaisRH + Formations internesContinu
Mettre à jour la politique data : qui a le droit d’envoyer quoi où ?Sécurité & Conformité Q1 2026

(oui, ce tableau a été généré par l'IA :)

Ajouter un commentaire

Le contenu de ce champ sera maintenu privé et ne sera pas affiché publiquement.

HTML restreint

  • Balises HTML autorisées : <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • Les lignes et les paragraphes vont à la ligne automatiquement.
  • Les adresses de pages web et les adresses courriel se transforment en liens automatiquement.