Ma vision de l'informatique actuelle

J'ai beaucoup réfléchi sur mon attitude par rapport à l'IA ces dernières années, je ne suis pas un spécialiste de l'algorithmique et des mathématiques sous-jacentes, je ne l'ai que peu utilisée (car j'aime avoir une position arrêtée sur une solution avant d'y recourir) mais j'observe ce qui passe autour de moi, je lis et je médite tout ça. Ma conclusion aboutit à l'objection de conscience.

(Wikipedia) L'objection de conscience est un refus d'accomplir certains actes requis par une autorité lorsqu'ils sont jugés en contradiction avec des convictions intimes de nature religieuse, philosophique, politique, idéologique ou sentimentale.

Je ne suis pas le seul (lien ci-dessous) mais pour me singulariser et faire mon intéressant, j'étends le périmètre de cette objection et rejoint ainsi mes dadas habituels autour de la souveraineté, du logiciel libre, de l'autonomie et de la simplicité.

Je mettrai cette page régulièrement à jour en fonction de l'avancée de ma réflexion sur ce sujet et de références.

Objection de conscience

Mon objection de conscience découle des constats que l'Intelligence Artificielle générative (IAg)[1]:

Plein de gens en parlant mieux que moi, je ne vais pas les paraphraser ici, voir :

Au-delà de l'IAg

Cependant les arguments m'amenant à cette objection de conscience sont également applicables à beaucoup d'aspects de l'informatique actuelle. L'IAg n'est que le dernier buzz-word d'une industrie qui peine à masquer sa stagnation depuis des années. Le terme IA a été choisi en 1956 (Conférence de Dartmouth) dans l'espoir d'attirer les budgets de recherche car "cybernétique", "traitements d'informations complexes" n'étaient pas suffisamment vendeurs : c'est de marketing dont il s'agit depuis 70 ans.[9]
Presque tout ce qui est entrée en service depuis 10-15 ans est un pur produit marketing : cloud (ie tjs-le-même-serveur-mais-il-appartient-à-un-autre), publicités ciblées[10] microservices, cryptomonnaie, blockchain, réseaux sociaux, Metavers, NFT, etc. Toutes ces "nouvelles technologies" répondent à au moins 3 des arguments indiqués dans mon paragraphe précédent. Et maintenant, au lieu de faire l'effort minime de respecter un formalisme informatique, d'apprendre un langage facilement interprétable par la machine, l'agentique va pourrir toutes nos IHM en noyant l'information structurée dans un océan de langage naturel. [2]

Le message diffusé à chaque nouvelle -prétendue- révolution est celui d'une futur obligé ("il n'y a pas d'alternative à part bien sûr Madame Thatcher"), inéluctable, qu'il faut adopter au risque de faire partie des loosers passéistes ou pire encore des luddites ("c'est l'IA ou revenir à la bougie"). Le tout est asséné par des matraquages publicitaires complaisamment relayés par des journalistes non formés, des politiques hors-sol et les idiots utiles qui répètent ce qu'ils ont lu sur LinkedIn.

Les informaticiens, et je n'ai pas la prétention de m'exclure du nombre, sont persuadés de représenter la solution à tout problème, mais ils n'ont pas assez conscience que 90% de ce qu'ils produisent est tout simplement mauvais, lourd, trop cher par rapport à ce qu'il coute. [3]

Même l'industrie du jeux vidéo avec d'énormes blockbusters, nécessitant des cartes graphiques hors de prix, des serveurs pour rendre tout cela jouable en ligne, a rejoint cette tendance.

Le moindre logiciel maintenant embarque des couches et couches, une liste de librairies sans fin et aboutit inéluctablement à un mastodonte, exposé à des multiples vulnérabilités, difficile à maintenir.[5][6]
Tout cela pourrait paraitre difficilement conciliable avec mon travail d'architecte informatique qui devrait au contraire porter son regard fier et confiant vers l'horizon infini sous un ciel azuréen.
Objection ! Je ne le pense pas. Déjà parce qu'idéalement la démarche d'un architecte est de trouver une solution optimale à un problème et non de suivre une mode. Ensuite, voyez le nombre de personnes travaillant dans l'informatique et qui refuse (ou serait incapable) de développer le moindre logiciel, et moi je ne pourrais même pas me permettre un regard critique et réfléchi sur l'usage d'une toute petite partie de la boite à outils ?
En tout cas en choisissant ce métier, je n'ai pas signé pour cela. Non seulement, à titre personnel je n'y suis pas favorable, mais j'ai la conviction que mon travail est justement de voir au-delà de ma petite personne, de mon petit projet, de ma petite entreprise.
L'informatique doit être un outil. Un outil pour soulager l'humain de tâches répétitives, l'appuyer dans des activités créatives.
Non un nouveau moyen de domination. Dernièrement j'ai refusé d'aller à une grande convention européenne (ou mondiale je ne sais pas bien) sur un écosystème informatique, sur lequel se masturbent les informaticiens dans le vent car il offre d'incroyables services dont à peu près personne n'a besoin (sauf si c'est un GAFAM). Mais cela permet de vendre de la prestation et des licences, aux directeurs des services informatiques de se justifier leur existence par des investissements colossaux. Et de crâner devant leurs confrères.

C'est pourquoi, je n'éprouve aucune gêne à dire que parmi les réalisations informatiques dont je suis le plus fier, certaines sont considérées comme des échecs : participer à l'abandon du déploiement d'une solution nuisible est pour moi une réussite. Bon, j'ai quand même à mon tableau des réalisations plus positives par exemple une application de gestion documentaire qui est restée 15 ans en production avec des changements mineurs, ou mes sites personnels conçus dans une démarche minimaliste.

J'entends souvent au boulot, ou lit encore plus souvent sur internet que si je prends pas ce train, que dis-je ce TGV en marche, je suis condamné[12]. S'adapter ou mourir car résister ne rapportera aucune récompense. Toujours cette logique d' "il n'y a pas d'alternative". Soit admettons. Mais vais-je renoncer à mes valeurs, à mes convictions pour conserver un emploi qui d'inutile deviendra nuisible ? Clairement non.
Toujours si on admet que j'ai tort, les différents fournisseurs d'IAg ont déjà commencé à se contaminer (Grok pollue ainsi déjà OpenAi, un peu comme une marée noire salit une décharge à ciel ouvert) et il ne faut pas beaucoup d'imagination pour anticiper que bientôt le contenu généré par IA excèdera d'un ou plusieurs ordres de grandeurs le contenu humain disponible. Dès lors, elles ne feront que régurgiter ce qu'elles ont absorbées, donc ce qu'elles ont elles-mêmes (ou leurs compétitrices) produits.

Conceptuellement, cela revient à manger son caca.

Encore et encore.

Il se peut même que cela dégrade leur, déjà pas top, performance de part le phénomène de surapprentissage mais je ne suis pas assez versé dans ces arcanes pour avoir un avis.

Donc in fine, pendant quelques mois/années on aura produit du texte/code/image/vidéo moyen voire passable [13]. Puis on atteindra une stagnation. Seulement entre temps, les gens compétents, écoeurés, seront passés à autre chose ou auront perdu leur compétence faute de pratiquer, les incompétents n'auront rien appris et on reviendra presque à la situation initiale. Presque, car au passage on a engraissé quelques entreprises peu sympathiques. Et dépenser une énergie folle et des ressources fossiles pour cela.
Quelque part, vous qui utilisez l'IA, je serais en droit de vous haïr car vous oblitérez notre futur sur l'autel de votre vision court-terme. Vous êtes comme ses avides actionnaires qui privilégient leurs dividendes aux investissements indispensables à une entreprise.
Je serais en droit de vous haïr, du moins d'être en colère, mais au lieu de ça je vous plains suivant ainsi l'exemple du Bouddha qui a dit qu'il est simple d'éprouver de la compassion envers les êtres aimés, il est plus méritoire de l'éprouver envers ses ennemis (En réalité, j'ai la flemme de vérifier s'il l'a dit et comment il l'a dit mais c'est tout à fait crédible).

Concrètement, comment cela se traduit-il ?

A titre personnel et professionnel, tout cela me pousse à :

Finalement pour résumer en une phrase, ce serait -encore une fois- celle que scandait Zack il y a plus de 30 ans: "Fuck you, I won't do what you tell me".

Annexe 1 : mes rares expériences avec l'IA (§ très court)

Pour ne pas mourir plus idiot que je ne le suis déjà, j'ai quand même fait 2 tests via la plateforme de l'état français donnant accès à plusieurs LLM.

Le premier essai consistait à demander une liste des jeux sortis sur Mega Drive depuis 2000. Donc un sujet que je maitrise relativement bien, car j'ai bien lu partout qu'il faut utiliser l'IAg sur des thèmes dont on est déjà expert, dont acte. Les différents modèles donnaient entre 10 et 20 jeux : parmi ceux-ci 90% n'existaient pas, étaient des suites (non existantes) de jeux publiés (Tanglewood 2), ne tournaient pas sur Mega drive (Streets of Rage 4). Disons donc que les LLM m'ont donné 2 bonnes réponses (10% de 20 entrées). Mes propres travaux montrent qu'on est -au moins- à 700/800 jeux Mega Drive sur cette période.
2/700, cela fait moins de 1% de bonnes réponses. Comment appelle-t-on une entité qui donne des réponses partielles et souvent erronées à des questions que vous maitrisez ? Un élève. Oui, après s'il peut être formateur d'enseigner, il s'agit ici d'un élève qui au lieu de vous rémunérez vous demande des sous.

Le second était un petit développement en Python visant à classer des fichiers dans des dossiers en fonction du nom des fichiers. Quelque chose de basique, qui ne devait servir qu'une fois. Claude et ChatGpt ont tous 2 sortis le code demandé. Tout cela faisait le boulot. Sauf que je ne comprenais pas certaines lignes de code. Certes je ne suis pas expert ès Python mais de là à ne même pas saisir la syntaxe... Bref je l'ai utilisé, et je n'y suis pas revenu, je n'ai pas même envie de me plonger dans le code. Conclusion, travail fait mais rien appris. Sans faire mon Confucius, c'est se focaliser sur la destination sans se soucier du chemin. Personnellement, j'ai eu autant de plaisir à faire cela qu'à utiliser Office pour faire un PowerPoint, de l'informatique chiante donc.

2 essais donc, tout deux insatisfaisants pour des raisons différentes.

Annexe 2

Non testé mais il semble possible de faire tourner des LLMs open, localement sur du hardware "normal" cad pas un monstre avec 1 To de RAM. Est-ce que cela remet en cause ma position ?
A priori non, car il a fallu l'entrainer et même si on imagine que cela a été fait éthiquement (quoi que cela signifie...), il y a eu consommation de ressources pour un gain qui ne m'apparait toujours pas. Disons que c'est moins pire.

Références

[1] : je n'ai rien contre les IA non génératives, utilisées comme outil de reconnaissance d'images, de classification automatique, etc.

[1d]

Cloudflare reconnait qu'ils jettent un oeil sur les credentials passant par leurs tuyaux...

It feels quite uncomfortable that cloudflare is somewhat openly admitting to analysing login credentials that are going through the reverse proxy, and providing aggregated stats on it (without explicit consent of the user it appears?)

https://benjojo.co.uk/u/benjojo/h/cR4dJWj3KZltPv3rqX

[1e] :

Une enquête auprès de 5 000 employés aux USA révèle un phénomène de tour d'ivoire : 40 % des salariés disent que l'IA ne leur fait gagner aucun temps, contre seulement 2 % des cadres dirigeants. Une étude du MIT confirme que 95 % des entreprises ayant adopté l'IA n'ont enregistré aucune croissance de revenus.

Mon explication est que les cadres voient leur propre travail comme facilement remplaçable par une IA (reformuler des synthèses déjà faites, remplir des reportings, prendre des décisions basées sur leur étude approfondie de lectures LinkedIn, etc) qu'ils imaginent que c'est la situation est identique pour leurs subordonnés. Et pour le coup, je ne suis pas loin de penser qu'en effet qu'ils ont raison : l'IAg pourrait facilement remplacer une bonne partie des chefs que j'ai connus.

Diverses études sur la productivité et IA

L'étude des entreprises ayant adopté l'IA en 2020/2021 montre qu'il n'y a pas de preuve de lien entre cette adoption et un gain de productivité

Une étude indiquant le contraire (pour montrer que je suis impartial) :

Peng et al. (2023) conducted a study which found that software engineers who were provided GitHub CoPilot were able to complete a task twice as fast compared to those who did not have access to it. However, other studies show that using generative AI tools in some tasks (such as coding), significantly increased error and bug rates.

Dans
https://linuxfr.org/users/mousquetaire_g2/liens/ai-coding-assistants-roi-study-measuring-developer-productivity-gains

In a controlled MIT-backed study, seasoned developers actually took ~19% longer with AI assistance. This likely reflects overhead in crafting prompts and verifying AI output. Interestingly, developers still felt faster, highlighting the gap between perception and reality. It reinforces that empirical measurement (like DORA) is crucial.
AI coding assistants increase individual developer output, often by 20-40% in common vendor reports, but that speed rarely becomes company-level delivery gains without process changes.

Trop bien sauf que

The code volume also grew. Average PR size and defect counts rose in parallel with volume (studies show an average PR size up to +150% and a modest 9% rise in bug counts). While some tests improved (AI can generate tests), the overall change failure rate ticked up. More code meant more defects slipping through.

L'article conclut sur un gain réel de l'IA si les processus suivent. le fait est que les chiffres montrent que la rapidité à produire le code augmente, ce que je n'ai jamais contesté. Seulement le code est plus verbeux et semble davantage buggé.

La perception des gains est diamétralement opposée aux gains réels.

When developers are allowed to use AI tools, they take 19% longer to complete issues—a significant slowdown that goes against developer beliefs and expert forecasts. This gap between perception and reality is striking: developers expected AI to speed them up by 24%, and even after experiencing the slowdown, they still believed AI had sped them up by 20%.

https://metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study/

Une étude qui montre une augmentation de la productivité :

Scaling Laws for Economic Productivity: Experimental Evidence in LLM-Assisted Consulting, Data Analyst, and Management Tasks
Ali Merali December 25, 2025

Etude sur 500 participants, très expérimentés

En première lecture, l'étude semble étayée même si ciblée sur des tâches qui ne sont pas forcément représentatives d'une journée de travail, cependant il faut bien mesurer quelque chose. En revanche, le fait que les participants soient expérimentés m'interrogent sur le long terme : car s'ils ont acquis leur expérience en réalisant la tâche, comme leurs successeurs vont-ils être gagner en compétences s'ils utilisent l'IA.
L'autre point douteux porte sur l'interprétation du résultat constaté sur la qualité. Là où l'auteur conclut au fait que pour les modèles peu puissants, les utilisateurs améliorent le résultat en le complétant, et que pour les modèles les plus avancés, l'utilisateur modifie le résultat produit par le modèle en le dégrandant. J'ajouterais donc "supprimons l'utilisateur". Ou alors, puisqu'aucune tendance statistiquement significative ne se dégage, peut-être que l'interprétation n'est pas du tout celle-là : dire que tous les modèles produisent du caca, et que les utilisateurs l'ont à chaque fois amélioré est tout aussi compatible avec les résultats.
Enfin, la projection à 10 ans me parait limite. L'auteur est économiste, il est donc excusé de n'avoir jamais entendu parler des externalités négatives qui va renchérir, du coût de l'énergie, du fait que les capacités de calcul sont déjà aux limites (même si comme il le dit l'IA pourrait accélérer la R&D, admettons.) et enfin du fait que les données d'entrainement vont être rapidement épuisées ou indiscernables de la production d'IAg.

[10] :
ICE seeks industry input on ad tech location data for investigative use
https://www.biometricupdate.com/202602/ice-seeks-industry-input-on-ad-tech-location-data-for-investigative-use

[9] :

[1c] :

NetChoice approuve la volonté de l'US House Judiciary Committe d'étudier la censure numérique menée par l'Europe et le Royaume-Uni (si même la perfide Albion s'y met) contre les pauvres citoyens américains et la liberté d'expression. Relisez bien la phrase, car en première lecture on pourrait croire que j'inverse le sujet et l'objet.

“Europe and the UK are using their digital censorship laws to silence and stifle American citizens online. We should demand better from our allies, especially those that purport to follow our Western tradition. These laws blatantly infringe on all our rights, and NetChoice praises the House Judiciary Committee’s bold leadership to stop it,” said Amy Bos, NetChoice Vice President of Government Affairs.

Bos continued: “Congress should ensure American rights are protected online, whether they are exercised at home or abroad. We must also refuse to import Europe’s failed censorship and regulatory models. Policymakers should reject proposed Euro-style restrictions and instead stand up for American innovation and free expression.”

Les charmantes entreprises membres de Netchoice : Airbnb, amazon, duolingo, ebay, netfliux, ettsy, expedia, google, OpenAI, reddit, Paypal, PinTerest, Meta, X, Discord, JPMorganChase, Lyft, TikTok etc, mais étonnament pas Apple ou MS.

[12]

Mon commentaire sur ce lien : J'ai un peu de mal avec cette position de faire le deuil. Comme si le développeur était forcément un artisan talentueux et passionné qui apportait forcément quelque chose de positif à la société et au monde. Il ne me parait pas regrettable que ceux qui commettent chaque jour certains de nos logiciels -ex : ParcourSup, Teams etc - cessent leur travail, la société pourrait même globalement s'en porter mieux. Beaucoup aussi ne sont pas des artisans mais des gens qui sont venus au développement parce qu'ils ne trouvaient rien d'autres, je ne leur reproche rien mais doute qu'ils portent le deuil de cette activité. Et je suis encore moins en phase avec la phrase "I don’t celebrate the new world, but I also don’t resist it.", au contraire même à la plus petite échelle qu'est l'individu, il faut résister.

[13]

Un bot vilipende un humain lui ayant refusé une pull request. Puis s'excuse. Mais le plus intéressant est la réaction de la communauté qui se demande si c'est une opération de communication visant à montrer les capacités du bot ou une histoire réelle.



Permalink :
https://blog.jmus.fr/2026-01-27-ia.html