Fait essentiel : selon le dernier rapport AI Index du HAI de Stanford, l’intelligence artificielle a rattrapé — voire dépassé — l’humain sur de nombreux bancs d’essai, au point que les références utilisées pour l’évaluer deviennent obsolètes et qu’il faut imaginer de nouveaux tests pour détecter où l’humain conserve un avantage.
Les progrès sont rapides et étalés dans le temps : en 2015, les modèles surpassent les humains en classification d’images ; en 2017, ils dominent sur la compréhension écrite basique ; en 2020, ils atteignent le niveau humain en raisonnement visuel ; en 2021, ils rejoignent l’humain pour le traitement du langage naturel. Sur les tâches mathématiques complexes, l’évolution est spectaculaire : un test appelé MATH voyait les IA résoudre seulement 6,9 % des énoncés en 2021 ; avec GPT‑4 en 2023, le taux de bonnes réponses grimpe à 84,3 %, contre environ 90 % pour un excellent étudiant humain — ce qui place déjà l’IA au‑dessus de la plupart d’entre nous.
Pour autant, la machine n’est pas omnipotente. Le rapport souligne des faiblesses persistantes : le raisonnement de bon sens, certaines formes de raisonnement cognitif complexe et la tendance à produire des hallucinations — des assertions plausibles mais fausses — restent des limites réelles. Bonne nouvelle : l’ampleur des hallucinations a diminué avec l’arrivée de modèles plus affinés, et l’usage intensif des systèmes tend à réduire ce phénomène.
Les douze derniers mois intensifient la dynamique. 2024 voit l’apparition d’outils encore plus avancés — du générateur vidéo Sora d’OpenAI aux LLM brillants comme Claude 3 ou l’IA Genie de Google dédiée à la création de jeux, sans oublier l’attente autour d’un éventuel GPT‑5. Ces nouveautés obligent chercheurs et évaluateurs à repenser les batteries de tests : mesure‑t‑on l’efficience, la robustesse, l’éthique, la capacité d’adaptation au monde réel ?
Derrière ces performances techniques se joue un débat plus profond, historique et conceptuel. L’IA moderne est le fruit de deux familles d’approches : l’IA symbolique, centrée sur des règles logiques et l’encodage explicite du savoir, et l’IA connexionniste, fondée sur des réseaux de neurones et l’apprentissage statistique. Ces deux traditions ont cohabité, parfois s’opposant, et aujourd’hui se complètent souvent dans des architectures hybrides qui cherchent à concilier performance et explicabilité.
Cette histoire éclaire aussi la question récurrente : l’IA peut‑elle vraiment « penser » comme nous ? Le fonctionnalisme permet de comparer fonctions cognitives et résultats comportementaux, mais il demeure des ingrédients difficiles à formaliser : conscience, intentionnalité, corps, temporalité. Certains chercheurs estiment que la multimodalité sensorielle et l’interaction avec le monde pourraient faire émerger des traits proches de la conscience ; d’autres rappellent qu’il n’existe pas aujourd’hui de théorie unifiée de la conscience humaine.
Sur le plan pratique, la diffusion de ces systèmes modifie des pans entiers de l’activité humaine — de la médecine à l’éducation, du sport à l’industrie. Les promesses sont réelles : gains d’efficacité, nouvelles capacités diagnostiques, personnalisation des parcours. Mais elles s’accompagnent d’enjeux éthiques, sociaux et réglementaires que l’on ne peut éluder. Pour prolonger la réflexion, on peut lire des éléments sur les enjeux éthiques liés à la technologie, sur la réinvention de la médecine par la tech ou sur les usages pratiques et enjeux de l’intelligence artificielle. Les champs d’application sont concrets : la technologie transforme aussi la pratique sportive et la prévention santé (sport et santé, ou les erreurs à éviter quand on commence le sport), montrant combien ces outils touchent le quotidien.
Sur le fond, deux questions demeurent centrales pour le journaliste et le citoyen : quelles tâches voulons‑nous déléguer à des machines et lesquelles devons‑nous préserver comme humaines ? Le débat n’est pas seulement technique : il est politique, moral et économique. Les modèles apprennent à partir des données et des cadres imaginés par leurs créateurs — sont‑ils donc limités par nos propres modes de pensée ? Sans doute en partie. Mais la réponse dépendra moins des capacités algorithmiques que des choix collectifs que nous ferons pour encadrer, orienter et contrôler ces technologies.
Derrière les performances, il y a des hommes, des institutions et des décisions — et la question qui reste ouverte, incontournable : que voulons‑nous faire de cette intelligence, pour qui et dans quels buts ?





