Catégories
Travaux

Le monde a-t-il oublié Manny Lehman ?

EDIT 19/08/2021 : mise à jour du texte de la 3ème loi, trop obscur. Ajout de références.

Les lois de Lehman ont été émises tout au long du dernier quart du XXème siècle. Elles sont passées de trois au milieu des années 70 à huit en 1998. Les trois premières sont tirées d’une analyse des données de gestion de projet d’IBM en 1968. Les suivantes ont été ajoutées au fil du temps et des discussions de Lehman avec d’autres chercheurs.

Toutes décrivent les lois empiriques que suivent les développements de programmes de Type-E. Ces lois restent valides même si les développeurs les ignorent ou luttent contre (d’où le vocable de lois).

Les logiciels de Type-E sont les logiciels réalisés pour répondre à un besoin métier complexe dans le monde réel, par opposition aux programmes de type P et S.

Les lois de Lehman

I – Changement continu

Un programme en cours d’utilisation doit être continuellement adapté où il deviendra de moins en moins satisfaisant.

La première loi est simple et instinctivement connue des développeurs et du management. Le monde évolue autour du logiciel, le logiciel doit évoluer en permanence pour répondre aux exigences d’un monde qui change.

Un logiciel doit être maintenu dans le temps pour durer, par des actions de maintenance régulières et adaptées.

II – Complexité croissante

La complexité d’un programme augmente à chaque modification, tant qu’aucune action n’est entreprise pour réduire celle-ci.

Cette seconde loi est tout aussi connue des développeurs. Elle est en revanche ignorée ou niée par les managers. De surcroît, les développeurs sont souvent bien incapables de l’expliquer à leurs décideurs, ils ne la connaissent que d’instinct.

Le drame est le lien entre complexité du logiciel et vélocité. Les équipes s’embourbent dans la gestion d’une complexité accidentelle évitable et ne parviennent plus à sortir de features. La pression du management s’accentue et la pire réponse est apportée presque à chaque fois : réduire le rythme du refactoring pour « gagner du temps ». Le schéma est ensuite toujours le même : surendettement, démotivation, turnover, retards, etc.

III – Auto-régulation

L’évolution d’un logiciel est un processus autorégulé. Les mesures des attributs des process et du produit suivent une distribution normale.

Cette loi est la plus barbare de la série et ses nombreux changements de nom et de définition semblent indiquer que Manny Lehman lui-même a du mal à expliquer cette loi au public.

  • 1978 : Loi de la croissance statistiquement régulière / Law of Statistically Smooth Growth
  • 1980 : La loi fondamentale de l’évolution des grands programmes / The Fundamental Law of Large-Program Evolution
  • 1998 : Auto-régulation / Self-Regulation

Cette loi décrit l’inertie des projets logiciels, inertie d’autant plus grande qu’ils impliquent un grand nombre d’acteurs. Pour Manny Lehman, plus un projet logiciel avance, moins les parties-prenantes ont de prise sur sur sa progression. Il exprime en 1980 la troisième loi sous cette forme :

L’avenir d’un projet logiciel dépend plus de son passé que des choix présents.

La loi a été remaniée par l’auteur en 1998, suite à l’ajout de la huitième loi. L’ancienne version de la troisième loi devient un lemme, qui facilite la compréhension de la nouvelle version.

Curling Canada | Streifel ajoute une autre victoire à son ...

Un projet logiciel ressemble à une partie de curling. Le lancer initial détermine la majorité des facteurs qui feront la réussite ou l’échec d’un projet. Les balayeurs ont un rôle important, mais plus minime que le lanceur sur la direction et la longévité du projet. Si le lanceur a projeté la pierre vers les tribunes, aucun effort des balayeurs n’ira la remettre sur le chemin de la cible.

Autrement dit, après le lancer, les balayeurs ne peuvent plus choisir arbitrairement où ira la pierre. Leur rôle se bornera à une influence discrète sur la direction de celle-ci. C’est déjà beaucoup. Quelques centimètres séparent le centre de la cible, la réussite, d’une performance médiocre, le retard.

C’est cela que Lehman exprime par sa loi. Une fois le projet « sur les rails », les aiguillages sont rares. Aucune autorité ne peut décréter que la valeur de tel ou tel indicateur sera arbitrairement doublée ou triplée. Tout au plus l’équipe pourra influer sur certains indicateurs par petits incréments. Au prix, huitième loi oblige, d’une réaction inverse de d’autres indicateurs.

Wrapped normal distribution - Wikiwand

A un instant T, l’ensemble des indicateurs du projet suit toujours une distribution normale. La seule variable à portée de l’équipe et du management est σ. Faut-il laisser le projet suivre son cours, ou tenter de corriger un jeu de variables, au prix d’une réaction symétrique d’autres variables ?

Je prends un exemple : le management peut décider que le projet ne va pas assez vite et mettre la pression sur les développeurs. La variable « vitesse » va augmenter, au prix d’une baisse d’autres variables comme la qualité ou la vélocité à long terme. La distribution normale des variables reste respectée.

IV – Conservation de la stabilité organisationnelle (taux de travail invariant)

Le taux d’activité efficace global moyen sur un système en évolution est invariable dans le temps.

Lehman décrit la Loi n°4 comme étant la plus contre-intuitive. Il énonce tout simplement que le management n’a aucune prise sur la vitesse d’évolution du logiciel ! Trop de boucles de rétroaction sont en jeu, macro (marché du travail, concurrence, etc.) et micro (Loi de Brooks, motivation, etc.) pour permettre le moindre changement à court ou moyen terme.

Prenons un exemple : votre projet est en retard et vous souhaitez ajouter un développeur. Sa rémunération sera prise sur autre chose (refacto, endettement, réserves). De plus, la loi de Brooks vous annonce que toute l’équipe va être handicapée par l’arrivée du nouveau pendant un bon moment. Une nouvelle personne ajoute un risque humain (conflits, mésentente, etc.). Si d’aventure l’intégration se passe bien et que le nouveau ajoute suffisamment de vélocité à l’équipe pour éponger le retard originel, celui dû à son intégration et justifier sa rémunération, ça ne sera statistiquement pas le cas chez dans l’équipe voisine ou au recrutement suivant.

Le corollaire de la 4ème loi est que le seul levier possible pour augmenter significativement la productivité d’une équipe est d’adopter des pratiques plus efficaces, donc d’éviter le plus de gâchis logiciel possible. Les extreme programmers ne sont pas des héros, juste des économes.

V – Conservation de la familiarité

Au cours de la vie active d’un logiciel, le contenu des livraisons successives est statistiquement invariant.

A cause de boucles de rétroaction omniprésentes dans le développement, la quantité de valeur dans une livraison restera statistiquement la même au cours du temps.

Cette loi impitoyable ne laisse que deux leviers aux managers pour influencer le contenu des livraisons afin de coller au mieux au marché ou au besoin : la priorisation et la dette technique.

Cette loi est cruelle : tout manager qui met la pression sur ses développeurs pour livrer plus et plus vite se condamne inévitablement à réduire la valeur des livraisons lointaines. Jusqu’à rendre cette valeur négative lorsque plus de bugs sont livrés que de features, conduisant à un effondrement de la confiance des utilisateurs.

VI – Croissance continue

Le contenu fonctionnel d’un logiciel doit croître sans cesse pour maintenir la satisfaction des utilisateurs stable.

Cette loi ressemble beaucoup à la première, sans lui être identique (même si les deux phénomènes sont liés). Quand un nouveau logiciel est développé, il répond d’abord aux besoins les plus évidents et pressants de ses utilisateurs, qui ne seront alors plus bloqués par une absence de solution. Ces utilisateurs seront alors bloqués par de nouveau problèmes, au fur et à mesure que les précédents seront adressés. La frustration sera sans cesse reportée sur l’attente de nouvelles features ou l’amélioration de l’existant. Si la croissance d’un logiciel vient à cesser, cette frustration n’a plus d’exutoire et la satisfaction des utilisateurs vient à diminuer.

Ce phénomène n’a pas de fin, car les utilisateurs ont tendance à pousser toujours plus loin l’intégration de leurs process dans le logiciel.

VII – Déclin de la qualité

Tout logiciel sera perçu comme en déclin de qualité s’il n’est pas rigoureusement maintenu et adapté à un environnement opérationnel changeant.

Encore une loi ressemblant à la première, lui étant reliée, mais fondamentalement différente dans son objet. La 7ème loi est la conséquence du Principe d’Incertitude : le résultat de l’exécution d’un programme dans le monde réel est intrinsèquement incertain et les domaines précis de cette incertitude ne sont pas non plus prédictibles.

« Le monde change par glissement, de manière inéluctable mais prévisible » est la prémisse de la première loi.

« Le monde change aussi par ruptures, imprévisibles dans leur intensité et leur fréquence » est la prémisse de la septième loi.

Sa conséquence directe est la nécessité de garder le logiciel en permanence dans un état d’ouverture au changement maximal. Tout doit pouvoir être remis en cause du jour au lendemain si la satisfaction de l’utilisateur l’exige.

Statistiquement, le pire arrivera un jour. Et il faudra s’y adapter.

VIII – Système rétroactif

Les processus de développement des logiciels sont constitués de boucles de rétroaction récursives sur de multiples niveaux. Ils doivent être traités comme tel pour être modifiés ou améliorés avec succès.

Cette loi peut être vulgarisée en présentant une équipe de développement comme un organisme vivant complexe. Appliquez-lui un changement, elle fera tout pour retrouver son état initial. Augmentez le rythme des livraisons, elles s’amaigriront. Pressez la cadence, la dette viendra engluer l’équipe sur le long terme. Recrutez un nouveau, les relations humaines entre les membres deviendront plus confuses et moins efficaces.

Cette loi avertit les managers tentés par le néo-taylorisme logiciel : les développeurs ne sont pas de ouvriers à la chaîne. On ne peut pas augmenter facilement la productivité d’une équipe. Toutes les solutions simples sont vouées à l’échec, même s’il n’arrive que plus tard. Tout changement doit avoir comme présupposé l’équipe actuelle et le changement doit venir d’elle.

Le logiciel n’obéit pas aux règles classiques de la gestion de projets industriels. La qualité logicielle est une discipline à part, complètement distincte, qui, c’est mon avis, ne peut être pratiquée que par des praticiens en développement correctement formés et expérimentés.

Limites et controverses

Dès leur sortie dans les années 1970, les lois de Lehman ont provoqué deux types de controverses : celles sur le terme de lois et celles sur le contenu de celles-ci. Les débats ont été vifs jusqu’à l’aube des années 2000, avant qu’elles ne tombent dans l’oubli.

Les détracteurs de Lehman ont-ils réfuté les lois ? En 2013, 4 chercheurs ont réalisé une revue systématique à ce propos.

Evidence pyramid

Le consensus actuel semble valider totalement les lois de Lehman pour les logiciels commerciaux. Cependant, la plupart des lois sont réfutées pour le développement Open-Source, qui semble suivre sa propre logique.

Les lois de Lehman font partie de ce que la recherche en qualité logicielle a de plus solide à l’heure actuelle pour décrire et bâtir des équipes et process solides. C’est un fait scientifique solide en l’attente de nouvelles preuves.

Le terme de « Lois » utilisé par Lehman a créé son lot de controverses, auxquelles l’auteur lui-même a répondu dans son article de 1996, Laws of Software Evolution Revisited. Je ne souhaite pas allonger cet article en présentant cette controverse, qui n’apporte rien après 40 ans et des dizaines d’articles venant confirmer les lois de Lehman.

Conclusions

Bien que tombées dans l’oubli, les lois de Lehman méritent de devenir une partie du corpus de règles de l’art qui gouvernent notre profession. Leur force probante est suffisante pour permettre à tout développeur de les opposer à sa hiérarchie ou à d’autres développeurs. Elles sont tout simplement au-dessus de l’avis de tout expert, même le plus reconnu et respectable. A l’heure des software-gurus, nous avons besoin de cette stabilité et de cette rigueur.

Je les enseigne à mes étudiants et j’invite tout développeur à les apprendre et à les comprendre. La recherche en qualité logicielle n’a pas atteint le niveau de rigueur de la recherche médicale (les méta-études sur ce champ de recherche se comptent sur les doigts de la main), cela ne signifie pas pour autant qu’elle ne démontre rien. L’appropriation des résultats de la recherche par les développeurs est un cercle vertueux. Plus nous exigerons des connaissances fiables pour guider notre profession, plus nous pousserons les chercheurs à les produire. N’hésitez d’ailleurs pas à remercier par un simple mail les chercheurs des études que vous lisez, d’expérience ils sont très heureux de voir des praticiens lire et appliquer leurs travaux.

Je compte continuer ce travail sur les lois et les règles de notre art, je le pense salutaire si vous voulons apprendre et sortir de l’enfance de notre profession.

Enzo Sandré

Sources

M. M. Lehman. 1996. Laws of Software Evolution Revisited. In Proceedings of the 5th European Workshop on Software Process Technology (EWSPT '96). Springer-Verlag, Berlin, Heidelberg, 108–124.
M. M. Lehman, "Programs, life cycles, and laws of software evolution," in Proceedings of the IEEE, vol. 68, no. 9, pp. 1060-1076, Sept. 1980, doi: 10.1109/PROC.1980.11805.
M.M. Lehman, On understanding laws, evolution, and conservation in the large-program life cycle, Journal of Systems and Software, Volume 1, 1979, Pages 213-221, ISSN 0164-1212, DOI:10.1016/0164-1212(79)90022-0.
Israel Herraiz, Daniel Rodriguez, Gregorio Robles, and Jesus M. Gonzalez-Barahona. 2013. The evolution of the laws of software evolution: A discussion based on a systematic literature review. ACM Comput. Surv. 46, 2, Article 28 (November 2013), 28 pages. DOI:https://doi.org/10.1145/2543581.2543595
Catégories
Vie de freelance

Se former en artisan

En entreprise, il est rare que l’on puisse choisir ses formations. L’anticipation des besoins par le management détermine souvent le calendrier. Chez l’indépendant et plus encore l’artisan, se former tient de l’exigence et de la discipline personnelle.

Préparation de boutures, en vue de créer des haies. Une des premières choses à faire en s’installant c’est de délimiter les espaces.

Avoir arrêté le salariat puis la régie m’ont permis de reprendre le contrôle de mon temps. Ne plus avoir un client à temps plein, mais plusieurs en parallèle offre de nombreux temps morts, de quelques heures à plusieurs jours. Les plus longs sont employés à renforcer mon autonomie. Quelque soit la saison, les travaux ne manquent pas. Les plus courts offrent moins de liberté. Sortir puis ranger les outils prend du temps. De surcroît, le cerveau déteste les changements de contexte et perd du temps à s’y retrouver. Mieux vaut donc rester dans le même type d’activité. La formation continue est une bonne candidate pour occuper ces espaces libres de moyenne taille, entre une demi-journée et une heure. En deçà, une pause reste le meilleur investissement.

Voilà réglée la question de « quand se former ». Mais que faire ? Je vous livre ma recette personnelle, sans prétendre avoir une quelconque autorité.

Je me forme en utilisant 3 familles de sources, chacun ayant sa propre temporalité. Ce diagramme résume grossièrement l’intérêt de chaque source. La science et les livres offrent un savoir solide, vérifié et souvent conçu pour durer. Ce n’est pas la priorité sur Internet, qui est plus volontiers un lieu de débats et d’essais. Ce schéma simplifie la réalité. Des blogs comme ceux de Mark Seemann ou de Martin Fowler n’ont rien d’éphémère et il n’est pas rare de voir un chercheur ou un éditeur publier sur le sujet à la mode. Comme tout modèle, ce diagramme est faux, mais utile.

La suite de ce papier présente chacune de mes sources de connaissance. Vous pouvez sauter directement à celle qui vous intéresse.

Les livres

Chaque métier a ses auteurs de référence. Le nôtre n’y échappe pas. Martin Fowler, Uncle Bob Martin, Osherove, Hunt&Thomas, etc. Je ne ferai pas la liste complète de ma bibliothèque pro, vous trouverez des listes de « Must have » à foison sur Internet. Un bon livre est une somme de savoir robuste, une brique de base dans la formation continue d’un développeur.

Le coût des ouvrages techniques est un premier frein à l’acquisition. 50€ n’est pas un prix exceptionnel pour ce genre d’ouvrages, gros et à faible tirage. Les plus demandés sont rarement disponibles d’occasion. Cet inconvénient est accentué pour les auto-entrepreneurs, qui ne peuvent pas acheter ces ouvrages net de TVA. Enfin, j’ai horreur d’annoter les livres, ce qui oblige à multiplier les post-it peu élégants.

Quelques classiques que je recommande.

Avoir des livres est obligatoire pour un développeur, on ne peut pas faire sans et tout savoir supplémentaire s’appuiera sur ce socle. Si vos étagères sont vides, je recommande de commencer par là. Ce n’est qu’ensuite que vous pourrez explorer ce que les chercheurs et les praticiens ont produit de plus récent.

Pour trouver des bons livres, j’ai deux méthodes : demander des recommandations dans la communauté et regarder les livres les plus cités dans les papiers scientifiques. J’ai ainsi de bonnes chances de ne pas investir dans des ouvrages décevants. Je me prive des dernières sorties, mais je l’accepte car ce n’est pas pour cela que j’acquiers des livres.

AvantagesInconvénients
Haute densité de connaissancesPrix élevé
Savoirs fondamentaux

Papiers de recherche

La collecte et la lecture de papiers de recherche représente environ 2/3 de mon temps de formation. Environ la moitié est de la lecture. Le reste est employé à suivre les références, classer, imprimer et télécharger les articles.

Les articles scientifiques sont complémentaires des livres : ils apportent des connaissances fraîches, tout en restant solides donc capitalisables sur le long cours. Toutefois, les articles ne sont pas à la portée de n’importe qui.

  • Un débutant aura mieux fait de lire les classiques et de pratiquer quelques années, sans quoi le savoir scientifique risque de lui paraître aride et très abstrait, faute qu’il ait rencontré des cas d’applications dans sa maigre expérience.
  • Un anglophobe n’aura simplement pas accès à 99,99% des papiers. L’anglais étant le latin de l’informatique, s’y mettre n’est pas une option.
  • Une personne non-familière avec le formalisme des articles scientifiques et les circuits de validation ne saura pas estimer correctement le degré de confiance à accorder à un article.

Ces précautions signalées, je vais partager ma méthode. Cela fait 3 mois que je la raffine et l’emploie avec succès.

Le classeur où je range les articles que je souhaite conserver.
  1. Tout commence avec une bête recherche Google Scholar sur des sujets très vagues. Plus ils sont vagues mieux c’est, nous verrons pourquoi ensuite.
  1. Les résultats arrivent par mail, j’effectue un premier tri selon le titre. Puis selon l’abstract. Je stocke les articles intéressants pour les imprimer par lots (je déteste lire sur écran des documents longs).
  2. Vient le temps de la lecture. J’effectue une première lecture superficielle rapide. Elle me permet de constituer 2 piles. La première sera relue plus en détail ultérieurement. La seconde ne servira qu’à en extraire les références intéressantes (c’est notamment le cas des méta-études, pas toujours utiles aux non-chercheurs).
  3. J’extrais les références de tous les papiers lus. Elles seront mêlées aux résultat de Google Scholar afin d’effectuer l’itération suivante. Les livres référencés sont notés dans un carnet. Le livre le plus cité a de fortes chances d’être commandé.
  4. Je classe les papiers que je souhaite garder par grands thèmes, avec pour chacun un post-it résumant son intérêt et éventuellement des marque-page. Ils sont intensément surlignés.

Un cycle complet prend environ une semaine. Je n’ai pas encore trouvé de méthode viable pour gérer les périodes d’intense activité scientifique. Pour l’instant les papiers non-lus s’accumulent sans constituer un inconvénient majeur. L’ordre de lecture est parfaitement arbitraire, je lis selon mes envies.

AvantagesInconvénients
Savoir solide, souvent vérifiéDifficulté de lecture
Les techniques de demainTri long et difficile

Vidéos, blogs et podcasts

L’avis des praticiens est chez moi la dernière famille de sources par ordre de priorité. Cela pour de nombreuses raisons :

  • Tenir une veille à jour est éreintant. Tout bouge très vite. Un bon outillage est nécessaire, mais il ne fait qu’atténuer légèrement la pénibilité du travail de sourçage.
  • La communauté produit beaucoup de bruit et de drama. Beaucoup d’éminents professionnels ont du mal à séparer leur expertise de leurs opinions tranchées, surtout lors des grands évènements politiques. Quand les canaux « opinions » et « expertise » ne sont pas distincts, même le meilleur outil de veille est englué dans le bruit.
  • Je trouve tout simplement mon bonheur dans les deux sources précédentes. La solidité des grands auteurs mâtinée des dernières découvertes des chercheurs est un mélange efficace.
Une veille qui a été délaissée 2 ans n’est pas belle à voir.

Cela se ressent fortement sur ma veille, complètement délaissée et rongée par les placements de produit. C’est pourquoi je ne donnerai aucun conseil dans cet article. J’ai pour projet de remettre ma veille technique sur les rails, en capitalisant les connaissances acquises à l’École de Guerre Économique. Encore un article promis qui ne sera pas écrit avant des mois.

AvantagesInconvénients
Immédiatement applicableQualité très variable
Facile à partagerBeaucoup de bruit et de drama
Fort investissement pour garder sa veille à jour.

Conclusion

Nous sommes ce que nous mangeons. Cela vaut également intellectuellement. Avec Internet, la tentation du grignotage intellectuel est grande : se former uniquement à la technologie à la mode, en négligeant les ouvrages plus consistants qui nous charpentent l’esprit. Souvent plus difficile d’accès, ils ne livrent leurs secrets qu’à ceux qui prennent le temps d’apprendre à les cuisiner. Cela vaut pour les livres, mais surtout pour les papiers scientifiques. Contrairement à ses camarades d’autres sciences, l’étudiant en informatique n’entend jamais parler de recherche pendant ses études et n’a aucune formation à ce sujet. Si je n’avais pas croisé sur ma route la zététique et le monde de la vulgarisation scientifique, je serai passé à côté d’une source abondante et précieuse de connaissances.

Je termine par un sujet que je n’ai pas évoqué : YouTube ne remplace pas la présence physique aux évènements (colloques, salons, séminaires, etc.). Vous y trouverez plus que des conférenciers accrochés à un micro : une communauté de professionnels avec qui discuter. C’est fondamental.

Enzo Sandré

Catégories
Vie de freelance

Créer une culture de la qualité logicielle.

Parlons indicateurs, performance et surtout incentives. J’ai encore vu cette stupidité sur une offre de mission en Devops :

Imaginons que je sois un joueur sans scrupules, dans un jeu que l’on appelle « développement ». Ces règles du jeu m’encouragent à produire rapidement le code le plus ignoble possible, afin de trouver un maximum de bugs en phase de recette. Je serais ainsi félicité par mon manager et gratifié d’un joli bonus. Mon code sera couvert par des tests de régression, garantissant a minima que l’existant tombe en marche, mais mon intérêt est que chaque nouvelle fonctionnalité soit la plus sale et buguée possible. Ces règles du jeu encouragent les pompiers pyromanes.

Suis-je dans la caricature ? Bien entendu. De tels développeurs sont rares en sortie d’école. Mais ils peuvent le devenir, c’est là toute la magie des incitatifs (incentives en Anglais). Je voulais introduire mon propos en abordant le développement de logiciels sous l’angle de la théorie des jeux.

Psychologie du groupe

Un manager décide de recruter toute une équipe de juniors, en contractualisant leurs objectifs. Au départ, personne ne prête attention à ces indicateurs, ils ne génèrent ni récompense, ni sanction. Chacun fera du mieux qu’il peut, ou pas selon les jours. L’objectif ne deviendra visible qu’après quelques fiches de paie, comparées à la machine à café. Les joueurs prennent petit à petit connaissance des règles.

Prenons deux développeurs de cette équipe. Alice pratique le TDD et ne pousse jamais un code qui ne soit pas dûment testé. Bob modifie le code, vérifie que les tests préexistants passent, mais n’en rédigera de nouveaux qu’en cas de bug. En effet, si un bug recensé réapparaît, c’est une régression, donc un malus sur salaire. Bob est malin.

Arrive le passage en recette. Le code d’Alice ne pose que peu de problèmes. Celui de Bob, non testé, va générer de nombreux bugs. Subjectivement, le manager verra une Alice sereine, faisant ses heures normalement, sans stress. A contrario il observera que Bob ne compte pas ses heures pour débugger le projet, qu’il se défonce, râle et s’épuise pour tenir les délais. Plus objectivement, dans la feuille Excel du manager, Bob aura corrigé plus de bugs qu’Alice.

Bob est prudent, il sait qu’une régression signifie une retenue sur salaire. Il veille donc à tester ses corrections de bugs, en pratiquant un Defect Testing zélé. Tout l’y incite et c’est une bonne chose, mais n’aurait-il pas mieux valu que ces bugs n’aient jamais existé ?

En fin de mois, Bob aura un meilleur bonus qu’Alice. Pire : Bob aura une meilleure image auprès des managers : plus présent, plus impliqué, plus solidaire qu’Alice ! Chez Alice, la frustration monte lentement. Après plusieurs mois, Alice sera excédée. Elle sera engagée sur la pente du ressentiment et mènera les actions suivantes :

  1. Tirer Bob vers le haut. Supposons Alice bienveillante. Elle va expliquer à Bob l’intérêt d’écrire un code de qualité. Or, même s’il est de bonne volonté, Bob n’a pas intérêt à changer. Ne plus générer de bugs, c’est baisser sa rémunération et perdre les faveurs du management ! Alice va donc commencer à …
  2. Haïr le management. Alice garde de bons liens avec Bob, voire essaye de s’en faire un allié. Elle tente de plaider sa cause auprès de la direction, mais la différence subjective d’image ne jouera pas en sa faveur. Elle passera pour la mauvaise élève qui tente de déplacer les poteaux de but, voire pour la collègue pétrie de jalousie. Bob n’a aucun intérêt à aller au delà de l’empathie passive. Alice finira par lui reprocher et en viendra à …
  3. Haïr Bob personnellement. Il ne mérite pas cet argent, il doit payer autrement. Bob ayant les faveurs de la direction, il est difficile de le dénigrer directement. Si elle n’a pas déjà démissionné, Alice baissera ses standards de qualité, afin de que Bob ne bénéficie plus de SON travail. Il veut travailler dans une soue ? Grand bien lui en fasse.

Pour les besoin de la narration supposons qu’Alice n’ait pas démissionné. Elle est devenue un Bob. Son comportement s’est d’abord ajusté par jalousie, pour emmerder Bob. Au fil des mois, sa rémunération augmentant avec l’approbation du management, Alice finira par oublier sa situation initiale. Elle est devenue une meilleure joueuse, considérant les règles en place.

5 ans plus tard, les référents techniques, les managers et les Lead Dev peuvent êtres des Alice ou des Bob, cela importe peu, de différents au départ ils sont devenus totalement interchangeables. Les objectifs peuvent même avoir disparu entre temps, la culture d’entreprise a intégré des pratiques qu’il sera très difficile de changer.

Dans le management des équipes comme dans la mise en orbite de satellites, un petit changement de trajectoire, indolore au départ, peut avoir des conséquences catastrophiques à l’arrivée.

Que faire ? Essai stratégique.

Que faire ? (Lénine) — Wikipédia

J’ai vécu ce qu’a subi Alice, mais je suis parti avant que ma haine du jeu ne se change en haine des joueurs. J’ai pris du recul et élaboré une réponse stratégique à ce problème.

Cette situation est une variante du Théorème du Singe, que l’on retrouve autant en entreprise qu’en politique ou dans les schémas d’usage des technologies. En faisant preuve d’empirisme organisateur, j’ai trouvé à ce jour trois issues pour quiconque refuse de finir comme Alice :

  • La contre-culture. C’est la voie majoritaire actuellement, avec le mouvement de l’artisanat du logiciel (software craftmanship). Devenir indépendant, travailler avec des clients « qui ont compris » (slogan de l’entreprise Arpinum), se fréquenter entre artisans comme sur Okiwi. L’idée est de créer un marché du code de qualité, cohabitant à côté du marché du code de masse.
  • L’entrisme dans le management. En France depuis Vichy, c’est le management qui amorce les changements, la base doit se contenter de suivre. Dans cette voie, le développeur accepte de jouer le jeu, pour mieux injecter son venin chez les grands comptes. Il entre par la porte de la formation, du conseil, du coaching, des RH, bref des fonctions transverses. L’objectif de cette stratégie est de changer les pratiques « par le haut » chez les grands comptes, en espérant les faire basculer et entraîner par mimétisme l’ensemble du marché.
  • Le rapport de forces. Dans ce scénario, Alice tient bon. Elle refuse de céder à la haine de Bob, cède au management sur l’accessoire, mais ne transige pas sur ce qui est fondamental : la qualité. Pour cela il faut une grande détermination et une bonne connaissance du Code du Travail. Le but est d’occuper, de durer, de convertir et de peser. C’est le modèle syndical. S’accrocher, tenir et finir par montrer que l’on a raison, à l’usure.

Je n’affirme pas la supériorité d’une stratégie par rapport à un autre. Je pense même que seul un mélange des trois permettra le basculement vers une culture de la qualité dans le logiciel. Mon propos est d’ouvrir des portes. Trop d’articles se contentent de constater les dégâts de la sous-qualité logicielle, en expliquent les causes et les remèdes sur un plan purement opérationnel et technique. Mon propos est de nature stratégique : Comment faire pour en finir avec les Louvois, les Chorus ou les ONP.

Cet article est le premier d’une tétralogie. Dans les mois qui viennent, je vais détailler chacune de ces pistes, mettant en évidence les avantages et les défauts de chacune. Plus important à mon sens, je souhaite relier chacune de ces stratégies avec des types de personnalités, afin d’orienter au mieux ceux qui veulent que les choses changent dans notre profession.

Enzo Sandré

Catégories
Vie de freelance

3 ans en ESN : Un bilan

ESN : Entreprise de Services du Numérique. Nouveau nom des SSII.
Si ma vie ne vous intéresse pas, allez directement à la partie un bilan.

Comment en suis-je arrivé là ?

Tout a commencé par un beau matin morne, dans l’agglomération parisienne. J’achevais ma formation à l’École de Guerre Économique, sans avoir trouvé d’emploi dans le secteur de l’IE. J’en revins à mon premier et seul métier, le développement. Je recherchais tout sauf un emploi urbain, c’est alors qu’une annonce pour une mission en pré-embauche à Rodez s’est présentée. L’aubaine, malgré mes forts préjugés sur les ESN. Pour 6 mois de pré-embauche je m’en fichais. Quelques jours plus tard, je retrouvai Céline, manager chez Consort, sur le parking du Causse Comtal, dans la charmante commune de Bozouls. La mission a duré 6 mois, dans un environnement tellement beau qu’il a réveillé en moi le vieux démon des solitudes contadines. Il ne m’a plus quitté.

Canyon de Bozouls, Aveyron.

L’embauche n’a finalement pas eu lieu, mais l’excellent suivi de mission de Consort m’a fait accepter une seconde prestation, en attente de trouver un client final, pensais-je toujours à l’époque. Ce fut à Toulouse, chez EDF. Consort m’a aidé dans ma recherche de logement. Quitter Bozouls fut un crève-cœur, surtout pour le tristement célèbre ensemble du Mirail. Mon charmant voisin ruthénois m’avait surnommé « l’estrangé » (avec l’accent), à cause de mes origines charentaises. Qu’aurait-il pensé de mon nouveau domicile !

EDF fut une nouvelle surprise. J’avais troqué Céline contre Anthony, l’éditique contre la gestion de postes, les falaises pour les tours, mais cette mission fut très agréable. Franck H., Ingénieur SI, s’occupait de la partie fonctionnelle, Consort du management et de l’administratif et j’avais pour seul responsable technique … moi-même ! L’absence de pression quant aux délais et la grande liberté que le client me laissait quant aux solutions m’ont permis de livrer un logiciel de très bonne qualité en fin de mission. J’ai fait mes premiers pas dans la formation, avec l’encadrement d’un alternant.

Château de Launaguet, Haute-Garonne.

Après un peu plus d’un an, changement de décor. Je déménage à Launaguet, de l’autre côté de Toulouse, pour une mission chez Geosys, dans l’agronomie. L’équipe managériale change avec Kamil et Lucas, qui me suivront jusqu’au bout. Mon projet professionnel a déjà changé. EDF était une mission très plaisante, mais elle m’a révélé l’absurdité de me déplacer tous les jours au bureau, pour effectuer des tâches que je pourrais accomplir aussi bien à domicile. L’appel de la ruralité continuait de me hanter et le mariage approchant, je commence mes recherches d’une maison en Charente-Maritime, ma terre natale. Cette période a duré pendant plus d’un an, suivie par une seconde mission similaire, chez Techform, à Labège.

Un poste salarié en full-remote m’aurait convenu, mais le management français n’y est pas prêt. Les anglo-saxons ont toujours une décennie d’avance sur nous. Ne souhaitant pas attendre, cela m’a motivé à devenir indépendant, malgré ma phobie administrative. J’ai quitté Consort le 31 mars et je déménage en Charente-Maritime aussitôt le confinement terminé. J’espère pouvoir retravailler avec Consort, ou même avec certaines entreprises dans lesquelles je suis passé.

Un bilan

Le confinement m’a laissé le temps de réfléchir à ces 3 ans ½ de salariat. En apprenti bayésien, j’en profite pour me remémorer les préjugés que j’avais sur les ESN, afin de déplacer mes curseurs de Turing. Rendons-leur justice, elles ne sont pas l’incarnation de Satan sur la terre, mais des entreprises comme les autres, soumises aux mêmes impératifs de rentabilité.

Avertissement : biais

Every Single Cognitive Bias in One Infographic

Cet article est fortement biaisé. Prenez-le comme un témoignage personnel. Il n’est adossé à aucune étude scientifique. Consort est une ESN de taille moyenne, « à taille humaine » comme on dit. Mes propos ne valent sûrement pas pour des ESN plus grosses. Je n’aborde pas non plus le sujet de la commande publique, très différent du monde de la prestation de services « au forfait ».

J’accuse parfois les entreprises pour lesquelles j’ai travaillé de « non-qualité ». C’est péjoratif, mais il ne faut pas le prendre comme une insulte. La non-qualité logicielle est le produit d’un système dans laquelle de nombreuses entreprises sont engluées inconsciemment. En bon corporatiste, je considère dans la plupart des cas mes pairs comme plus responsables que leur management. Haïssons le jeu, pas les joueurs.

Sous-rémunération : Relaxe

On accuse souvent les SSII de payer au lance-pierres. C’est en partie vrai, mais il ne s’agit pas d’autre chose que du prix de marché. Mettez vous à la place du management : vous n’avez pas d’expérience. Vous êtes fraîchement sorti d’une école dont la promotion est une boîte de chocolats : le recruteur ne sait pas sur quoi il va tomber. Le diplôme représente une capacité minimale, pas une garantie de compétence et les promos sortantes sont extrêmement disparates en termes de niveau. C’est d’ailleurs pour cela que les entreprises sont friandes d’alternants : ils ne coûtent presque rien et donnent à l’entreprise 2 ans pour savoir sur qui elle est tombée.

Illustration de l’effet Dunning-Kruger

À cela s’ajoute l’effet Dunning-Kruger. Beaucoup d’étudiants resteront coincés sur la montagne de la stupidité. Ils n’évolueront plus, se croyant déjà experts. Ils deviendront ce que l’on appelle des « Expert Beginners ».

Je ne suis pas un fanatique du libre-marché, mais dans le cas des juniors, le prix qu’il tend naturellement à produire est assez juste. Une fois votre compétence démontrée, vous pourrez renégocier votre salaire. Quelques astuces cependant :

  • Se renseigner sur le montant facturé au client, ce qui vous permet de connaître la marge que fait l’ESN. En négociation le déficit d’information fait le rapport de forces.
  • Lire la convention Syntec, surtout si vous êtes en forfait heure. Vous devez toucher au moins le plafond de la sécurité sociale. Vous trouverez des articles expliquant cela un peu partout.
The Bell Curve. S’applique originellement au QI, mais peut aussi représenter la répartition en terme de compétence à un poste.
  • Après quelques années, apprenez à vous situer parmi les professionnels de même niveau de compétence, sans fausse modestie ni orgueil déplacé. C’est très utile afin de trouver le salaire que vous pensez mériter, par rapport à la moyenne.

Vous pouvez aussi opter pour une autre stratégie : vous préparer à devenir un indépendant et voir votre employeur comme un futur client. Cependant je vous conseille d’attendre de ne plus être étiqueté « Junior » pour le faire. Personne ne fera confiance à un freelance junior, sauf dans les métiers de la création web.

A ceux qui objecteraient que les rémunérations à l’étranger sont meilleures, je répondrai deux choses :

  • Vérifiez le coût de la vie et la présence d’une sécurité sociale aussi englobante qu’en France. Préférer gagner plus, mais être moins couvert est une stratégie personnelle, ni meilleure, ni moins bonne qu’une autre.
  • Faites de l’open-source ou pair-programmez avec des américains ou des scandinaves. Le niveau moyen en sortie d’école m’a toujours paru beaucoup plus élevé qu’en France.

Pour toutes ces raisons, je pense que les ESN méritent une relaxe sur le chef d’inculpation « sous-rémunération », au moins pour les profils junior. Note : je suis parti aussitôt mon étiquette de junior perdue. J’ignore l’état des rémunérations pour les profils expérimentés ou Senior.

Pression psychologique : Disculpation

Les ESN ne gagnent rien quand vous êtes en intercontrat. Nada. Quand vous n’êtes pas en mission ce sont elles qui jouent le rôle d’assurance chômage, en mieux (même salaire, formation, etc.). Il est logiquement dans leur intérêt de presser les prestataires afin qu’ils soient en mission, donc rentables à nouveau. C’est une question de survie pour elles. Sont-elles pour autant des monstres froids, recasant au chausse-pied leurs employés sur la première mission venue ? Ce n’est pas l’impression que j’ai eu. Bien au contraire.

J’ai fait plusieurs périodes d’intercontrat, allant de 2 jours à 2 semaines. Les plus courtes étaient purement utilitaires (déménagement pour changer de mission), les plus longues ressemblaient sensiblement à des vacances, sans avoir posé de congés. Que ce soit à l’agence ou en télétravail, je fus assez libre de faire ce que je voulais, m’autoformer en l’occurrence. Je n’ai subi aucune pression me contraignant à poser des congés ou des RTT. Peut-être est-ce différent ailleurs, mais Consort ne pratique pas ce genre de pressions injustes.

Le niveau de rémunération n’est qu’un avatar du rapport de forces. La capacité à choisir sa mission en est un autre.

Je n’ai pas subi de pression à rester sur une mission décevante, en dehors des impératifs contractuels (les renouvellements de contrat sont trimestriels, il faut finir la période pour ne pas coûter des pénalités à votre ESN). Mon avis est biaisé, car la quasi-totalité des missions sur lesquelles j’ai été placé se sont révélées intéressantes. Quand l’une d’entre-elles m’a déçu, mon manager a organisé tout de suite une médiation avec le client, puis une sortie à la fin de la période contractuelle. Le marché est vaste, je ne vois pas l’intérêt qu’aurait une ESN à forcer ses collaborateurs sur des missions inadéquates.

La disculpation des ESN sur ce point est évidente, sauf si vous tombez sur une ESN ou un manager toxique.

Mercenariat : Coupable, et alors ?

« Marchands de viande », l’expression a le mérite d’être parlante.

Un surnom courant des ESN est « marchands de viande ». L’appellation est vulgaire, mais a le mérite d’être parlante. Un prestataire en ESN est comparable à un mercenaire.

Il n’y a rien de péjoratif dans ma bouche. Mercenaire est un métier comme un autre, surtout pour quelqu’un de rompu à la guerre économique. Si c’est souvent une obligation pour le junior, fraîchement sorti de son école, travailler en ESN devient un choix de carrière pour les profils plus expérimentés.

Le mercenariat n’interdit pas la loyauté, j’ai vu des prestataires et des managers entamer une relation de confiance sur le long terme avec leurs clients. Sur un marché concurrentiel comme les services en informatique, c’est un moyen de se démarquer. Il ne faut cependant pas perdre de vue que l’ESN obéit, comme toute entreprise, prioritairement à une logique de rentabilité. Les fanatiques de la gratuité, de l’open-source ou de l’esprit « rugbymen » des startups, ont rarement leur place en ESN.

Oui les ESN sont coupables d’être des mercenaires, et alors ? Ils proposent une offre bien différente des « armées régulières » que sont les clients finaux, qui conviendra à ceux qui souhaitent changer fréquemment de mission, tout en gardant la sécurité de l’emploi.

Qualité logicielle : Disculpation

Accuser les ESN pour le manque de qualité du code est un lieu commun chez les artisans du logiciel. « Code de SSII » est même devenu une insulte, servant surtout à désigner les abominations d’État, qui coûtent chaque année des millions d’Euros en maintenance et malfaçons (Louvois, ONP, etc.). Pour moi, les ESN ne sont pas responsables. Je n’ai aucune étude pour appuyer mes propos, juste un témoignage à prendre comme tel.

Il fallait qu’un bâton de chaise fût bien fait. C’était entendu. C’était un primat. Il ne fallait pas qu’il fût bien fait pour le salaire ou moyennant le salaire, il ne fallait pas qu’il fût bien fait pour le patron, ni pour les connaisseurs, ni pour les clients du patron, il fallait qu’il fût bien fait lui-même, en lui-même, pour lui-même, dans son être même.

Charles Péguy, Mystique et Politique

Il se trouve que je suis têtu et particulièrement intransigeant sur la qualité de mon code. Certains clients comprenaient parfaitement cela et me faisaient confiance sur les délais. D’autres imposaient la cadence et se retrouvaient fort marris lorsque j’annonçais un retard sur la date de livraison, date qu’ils avaient souvent sorti de leur chapeau. Bien des collègues, prestataires ou non, résignés après des années dans de tels contextes, préféraient obtempérer et baissaient leurs standards de qualité. Ainsi naissait le fameux effet « boule de merde ».

L’effet « boule de merde ». La non-qualité ralentit les développements futurs. La pression sur les délais diminue encore la qualité. Cercle vicieux.

Je n’accuserai donc pas les ESN du déficit de qualité. Ce serait trop facile et parfaitement injuste. Certaines prestations m’ont permis de développer sereinement un code de grande qualité, d’autres furent un parcours du combattant où il fallait arracher au client des délais corrects. Certaines entreprises ont une culture de la qualité bien ancrée chez leurs salariés, ce qui force les prestataires à ôter leurs moufles avant d’entrer. D’autres ont des équipes parfaitement résignées à la non-qualité, le turnover des prestataires – libres de partir facilement, contrairement aux CDI – et l’hypothèse de la vitre brisée faisant le reste.

J’irai plus loin. Les ESN permettent aux développeurs soucieux de la qualité de quitter rapidement de contextes insatisfaisants. Les contrats sont fréquemment signés au trimestre. C’est assez de temps pour se montrer pédagogue avec un client. S’il ne comprend toujours pas l’intérêt de la qualité, il est temps de partir. Mon erreur de jeunesse fut sans doute d’avoir compris cet avantage trop tard.

Pour moi, les ESN ne méritent pas l’accusation d’encourager la non-qualité logicielle.

Indépendant : quelle différence

Je suis indépendant. En théorie je gagne (beaucoup) plus que lorsque j’étais prestataire. N’allons pas trop vite en besogne cependant. Il ne faut pas confondre recettes et bénéfices, surtout dans l’enfer fiscal qu’est la France.

L’ESN paye apparemment moins bien, mais elle vous décharge de très nombreux risques (chômage, maladie, litiges) ainsi que de fonctions coûteuses (formation, administratif, prospection, relation client). Être indépendant c’est choisir une grande liberté, mais passer également plus de temps sur autre chose que votre métier. C’est un choix ! Mes projets m’ont poussé à prendre ce chemin, mais il ne convient pas à tout le monde.

J’ai réalisé ce diagramme pour vous aider à y voir plus clair. Pléthore de chemins existent, tant que vous savez ce que vous pouvez et voulez faire. Je déconseille cependant formellement aux phobiques administratifs de devenir freelance, surtout avec des structures lourdes comme des EURL. Prenez dans tous les cas un bon comptable*.

J’espère que mes conseils d’ex-junior en ESN vous auront servi, j’ai essayé d’y mettre tout ce que le moi d’il y a quelques années aurait aimé savoir !

* Cette publicité pour mon comptable est purement gratuite.

Enzo Sandré

Catégories
Le Bien Commun

L’IA va t-elle aussi tuer la démocratie ?

Le livre de Laurent Alexandre est semblable au Basilic de Roko, cette expérience de pensée mettant en scène une singularité bienveillante qui torturera tous ceux, même morts, qui n’ont pas aidé à sa venue. Comme le Basilic, l’ouvrage ne vaut pas grand-chose sur le plan logique, cumulant les hommes de paille, les approximations, les études non-sourcées, les prophéties et les arguments d’autorité. Comme le Basilic, l’ouvrage en dit long sur les peurs irrationnelles suscitées par l’IA, principalement au sein de l’élite cognitive, prétendument vaccinée contre l’obscurantisme par la rigueur scientifique. Enfin, comme le Basilic, l’ouvrage trouve son intérêt dans son contenu politique, presque métaphysique, à condition de le lire d’un œil dépassionné, capable d’extraire les avertissements pour notre temps, de la science-fiction omniprésente.

Le Dr Alexandre maîtrise bien son style habituel : faire peur pour susciter une réaction du public, puis des politiques à travers eux. Cette fois, le maire de Meaux, Jean-François Copé joue le rôle du politicien, plus mesuré, qui sait que la politique est l’art de louvoyer, non celui de renverser la table. Il adoucit l’alarmisme de la première partie, avec une idée derrière la tête : dompter la peur que suscite Laurent Alexandre pour annoncer un sauveur : l’Union Européenne. L’argumentation ne manque pas de contradictions et donne une impression de récupération politicienne. S’il pointe avec justesse le manque d’une vision à long terme incarnée dans un personnage fort et légitime, c’est pour mieux se réfugier chez les Commissaires Européens. La démocratie n’attendra pas l’IA pour mourir.

La conclusion partagée par les deux auteurs retient notre attention : c’est au politique de décider en matière de choix technologiques, à condition d’en posséder la capacité. Seules les puissances décident de leur avenir. Les auteurs ont raison de dire que le refus de tout progrès technique est intenable : nous serions vite colonisés et mis sous le joug de puissances plus avancées, qui nous imposeraient les technologies que nous refusions.

La France fait mine de vivre dans d’éternelles années 50, quand dans la Silicon Valley, le mouvement NRx envisage sérieusement une techno-dictature mécanique et barbare. Une classe cyborg dirigerait une armée d’esclaves biologiques sous l’œil d’une IA bienveillante. De son côté la Chine accole 1984 au Petit Livre Rouge, en créant un système de notation automatique des citoyens, conditionnant l’accès au logement, aux études, etc. Si nous perdons notre puissance, gage de notre indépendance, voici les Charybde et Scylla qui nous attendent.

Le livre cosigné par Laurent Alexandre et Jean-François Copé est loin de manquer d’intérêt, à condition de le prendre pour ce qu’il est : un pamphlet alarmiste, un coup de pied au derrière, destiné à sortir la France de sa torpeur, de sa non-puissance postchrétienne, de ses bons sentiments baveux et de son embourgeoisement sénile. Malgré son titre très mal choisi et ses deux parties assez inégales, il n’en reste pas moins une bonne lecture pour sensibiliser le public aux liens entre technologie, puissance et politique.

Enzo Sandré

Catégories
Non classé

Délit d’initié : le PDG d’Intel a vendu ses parts le 29 novembre

Tempête mondiale dans le monde numérique : Intel, géant mondial des microprocesseurs vient d’annoncer la découverte et la correction d’une faille présente depuis plus de 10 ans dans ses produits. 5 à 30% de réduction des performances sont annoncés après application du correctif.

Cette affaire est sans doute connue depuis des mois chez Intel, à en juger par l’étrange transaction réalisée le 29 novembre par son PDG, Brian Krzanich. Le dirigeant a vendu l’intégralité de ses Stock-Options, ne gardant que le strict minimum. Coïncidence ou délit d’initié ? La presse française n’a pas encore évoqué l’affaire.

Enzo Sandré


Pour plus de détails, nous vous proposons un article du site The Motley Fool, traduit par nos soins.

Le PDG d’Intel vient de vendre beaucoup d’actions

Ces transactions ne sont pas à prendre à la légère.

Le 29 novembre, Brian Krzanich, le PDG du géant des puces Intel (NASDAQ:INTC), a déclaré plusieurs transactions sur des actions Intel dans un Formulaire 4 déposé auprès de la SEC (Securities and Exchange Commission).

La plupart des transactions impliquaient l’exercice par Krzanich de stock-options, qui lui permettaient d’acheter des actions Intel à des prix nettement inférieurs à ceux du cours à l’heure actuelle, et leur revente immédiate sur le marché.

Il n’y a en soi rien de mal, ou même d’inhabituel, dans de telles transactions. Les dirigeants d’entreprise, et même certains employés, reçoivent souvent soit des stock-options et / ou des unités d’actions restreintes (UAR) dans le cadre de leurs régimes de rémunération, et les bénéficiaires de cette rémunération voudront tôt ou tard les convertir en liquidités.

En effet, comme expliqué ici, la vente faite par des initiés n’est pas toujours de nature à susciter l’inquiétude.

Toutefois, deux des transactions déclarées par Krzanich dans le formulaire 4 me semblent plus importantes que les exercices de stock-options ordinaires et les ventes subséquentes d’actions. Regardons de plus près.

Krzanich garde le strict minimum

Les statuts d’Intel imposent aux dirigeants et aux membres du conseil d’administration de détenir un certain nombre de titres de propriété à partir du moment où ils travaillent pour l’entreprise depuis cinq ans. Voici les montants basés sur le rang au sein de l’entreprise :

PDG 250,000
Directeur exécutif et président 150,000
Directeur financier 125,000
Vice-président exécutif 100,000
Vice-président senior 65,000
Vice-président administration 35,000
Autres vice-présidents et hauts responsables 5,000-10,000

Krzanich ayant été nommé PDG d’Intel en mai 2013, il devrait avoir 250 000 actions d’ici mai 2018, soit dans environ cinq mois. Il est donc intéressant de noter qu’avant de faire l’une des transactions qu’il a déclarées dans son dernier formulaire 4, il détenait 495 743 actions.

Après les exercices d’options et les ventes subséquentes (qui ont laissé sa position inchangée à 495 743 actions), Krzanich a ensuite réalisé deux autres transactions : une vente de 242 830 actions et une vente de 2 913 actions, chacune s’étant faite au prix moyen de 44,555 $.

Suite à ces deux transactions, Krzanich détient exactement 250 000 actions – soit le strict minimum qu’il doit détenir en tant que PDG.

Qu’est-ce que cela signifie ?

Krzanich a peut-être vendu ces 245 743 actions évaluées à près de 11 millions de dollars au moment des transactions pour payer une nouvelle maison ou acheter une œuvre d’art rare. Cependant, cette explication est trop simple et assez vague, notamment à la lumière de la grande manne qu’il a reçue lorsqu’il a exercé et vendu toutes ces options d’achat d’actions.

Au lieu de cela, étant donné que Krzanich semble avoir vendu toutes les actions qu’il pouvait sauf celles que les statuts d’Intel l’obligent à détenir, j’ai l’impression qu’il n’a pas une grande confiance dans le potentiel des actions Intel. Il est peut-être en cela influencé par un point de vue tiède (voire même négatif) des perspectives commerciales de l’entreprise à court et à moyen-terme.

Après tout, si on se souvient que le directeur financier d’Intel, Robert Swan, aurait déclaré dans une note rapportée par The Oregonian que la société a pour objectif d’augmenter sa capitalisation boursière à 300 milliards de dollars (avec des actions à plus de 60 dollars) d’ici 2021, n’aurait-il pas été plus sage pour Krzanich de garder ces actions, en collectant environ un quart de million de dollars par an en versements de dividendes, jusqu’à ce que chacune rapporte 16 dollars de plus, pour une valeur additionnelle de près de 4 millions de dollars ?

En effet, si on prend en compte l’affirmation qu’il a faite en février selon laquelle le marché potentiel d’Intel devrait atteindre les 220 milliards de dollars d’ici 2021, il semble étrange que Krzanich choisisse de ne garder que les actions que le règlement d’Intel lui impose.

Source : https://www.fool.com/investing/2017/12/19/intels-ceo-just-sold-a-lot-of-stock.aspx

Catégories
AF2000

Vers la fin (de la neutralité) d’Internet ?

Le 14 décembre 2017, la FCC[i] a officiellement mis fin à la neutralité du net. Hurlements du côté des « défenseurs des libertés » pro-neutralité, cris de joie du côté des « défenseurs des libertés » anti-neutralité. Cette décision n’est pourtant qu’un symptôme : la toile craque sous le poids des géants du web.

Le postier libre dans le monde libre

Revenons aux origines : Internet était un petit réseau reliant des utilisateurs de taille comparable, souvent à la fois clients[ii] et serveurs[iii]. Le réseau est conçu pour dissocier complètement la couche physique (transmission des informations) du transport (adressage, routage) et de l’information transmise. Pour prendre une image, n’importe quel colis bien adressé peut aller n’importe où en passant par un nombre indéterminé de bureaux de poste, qui communiquent entre eux comme bon leur semble (avion, barque, etc.). Implicitement, le postier n’avait pas le droit de discriminer le colis selon son origine, sa destination, son poids ou son contenu, par exemple en forçant les gros colis à prendre le bateau. Cette neutralité de fait d’Internet a permis son essor face aux réseaux concurrents.

Mon postier est surchargé

La neutralité de principe n’existait pas avant 2004, car elle allait de soi dans un réseau décentralisé. Quand la FCC adopte une déclaration sur la neutralité du net, il s’agissait déjà de sauver ce principe dans un réseau en cours de centralisation.

Les états, renseignement et justice en tête, ne pouvaient pas laisser cette immense cour de récréation sans surveillance. Avènement des pandémies informatiques, expansion du crime ou du simple délit contre le droit d’auteur : Internet devait être surveillé et censuré au besoin. Même les plus grands défenseurs de l’Internet Libre n’ont rien vu à redire. Certains hypocrites craignent une censure extra-légale par les opérateurs privés avec la fin de la neutralité. N’est-ce pas déjà le cas ? L’affaire Stormfront évoquée dans nos colonnes n’est pas autre chose, au nom de la lutte contre les discours de haine. Que dire des réseaux sociaux, véritables sous-réseaux d’Internet, qui censurent à tour de bras ?

Les nouveaux usages d’Internet ont polarisé le réseau : une multitude d’utilisateurs ne fournissant aucune ressource consommant des plateformes toujours plus fréquentées. Pour relier plusieurs villages autonomes, un réseau de petites routes fonctionne très bien. Autour d’une grande ville, vous devrez créer des autoroutes, des ponts, des métros. Internet fonctionne de la même manière. La polarisation crée de la centralisation, qui crée des coûts d’infrastructure.

L’infrastructure d’Internet est gérée par des transiteurs, dont les FAI[iv]. Ils doivent dimensionner la taille des tuyaux au volume qui y circule. Avec la neutralité du net, ils n’ont pas le droit de ralentir ou bloquer un flux sur la base de son contenu, de sa source ou de sa destination. Les transiteurs se voient obligés d’accepter le tout-venant et de dimensionner leurs infrastructures en conséquence. La neutralité du net a un effet pervers : elle permet un chantage des plateformes envers les transiteurs. Un exemple : YouTube est très apprécié des utilisateurs, qui se plaignent auprès de leur FAI à la moindre lenteur (« je paie pour ça »). Le FAI fait pression sur le transiteur pour augmenter la taille du tuyau le reliant à YouTube. Le transiteur doit réaliser des investissements assez lourds auquel YouTube refuse de participer, arguant que le tuyau bâti pour lui est neutre, donc théoriquement utile à tous. Les abonnements à la carte étant interdits par la neutralité du net, le coût est globalement répercuté sur l’utilisateur final.

Internet : une ressource

La fin de la neutralité du net va coûter cher aux plateformes comme YouTube ou Netflix, obligées de partager la facture de transit avec les utilisateurs qui les regardent. Pour la France, ce sera la seule conséquence de cette décision américaine, à moins que les autorités européennes ne décident d’en finir elles aussi avec la neutralité du net.

La fin de la neutralité est un symptôme de l’internet-marché : un portail de services à la carte. 5€/mois pour YouTube, 10€ pour Google, ne laissant pas de place en dehors des géants prêts à payer pour y figurer. L’utilisateur possèdera un simple terminal, sorte de smartphone verrouillé où l’on ajoute des applications.

L’avenir d’Internet est sombre, mais il est tout à fait probable qu’un autre réseau le remplace dans les années à venir. Il devra éviter les trois écueils qui tuent Internet : régulation des géants qui déstabilisent physiquement le réseau (GAFA, mais aussi FAI obèses), chiffrement intégral des échanges pour éviter les intermédiaires trop curieux et atténuation de la dichotomie client/serveur (P2P, réseau distribué).

La liberté du réseau a un prix, incompatible avec sa centralisation.

[i] Federal Communications Commission, l’autorité régulatrice des télécoms aux USA.

[ii] Le client demande une ressource sur le réseau

[iii] Le serveur fournit une ressource à la demande

[iv] Fournisseurs d’accès à Internet

Catégories
AF2000

La guerre des intelligences – recension

Le Dr Alexandre vient de publier un livre afin d’alerter la France endormie du danger de l’Intelligence Artificielle (IA). A l’heure où la Chine et les USA colonisent numériquement le monde, la France a-t-elle encore une chance de peser ? Si oui, faut-il obligatoirement signer un pacte faustien avec la Machine ? C’est à cette réflexion terrifiante mais passionnante que nous invite Laurent Alexandre.

Repenser l’intelligence

La thèse centrale du livre est la nouvelle définition de l’intelligence dans la société  l’information. Les gigantesques masses de données nécessaires à quiconque prétend peser dans le monde d’aujourd’hui ne peuvent déjà plus être traitées par le cerveau humain seul. L’homme a besoin de béquilles algorithmiques pour s’y retrouver. L’intelligence de demain sera en réalité un « coefficient de complémentarité avec l’IA », afin que cette dernière reste un outil et ne devienne pas la maîtresse.

La France part désavantagée de la course au QI, déjà sprintée sans aucune barrière éthique par la Chine. Sans même parler d’eugénisme ou de transhumanisme, débats esquivés depuis des années dans l’Hexagone, nous traînons un vieux boulet : l’école à la française. Tiraillée entre le pédagogisme imbécile et une volonté rétrograde de retour aux Hussards Noirs, elle peine à former les élites de demain.

Les horreurs de la démocratie

Le trait extrêmement noir de la seconde partie du livre (2035-2060) laisse un sentiment de frustration : Laurent Alexandre explique à quel point la logique égalitariste, progressiste et démocratique, incontournable en France depuis 1789, nous happe dans les engrenages terrifiants du transhumanisme.

Comme pour la GPA aujourd’hui, les barrières éthiques de notre civilisation seront contournées à l’étranger. Les plus riches auront accès aux techniques d’amélioration du QI et aux augmentations physiques dans les 50 ans. Dans une France jalouse d’égalité, le différentiel entre les « augmentés » et les autres paraîtra insupportable dans l’opinion. Les augmentations prises en charge par la sécurité sociale seront la dernière promesse électorale à la mode.

Le scénario glacial du jeu Deus Ex : Human Revolution n’est pas loin, avec son cortège d’esclaves s’aliénant pour être employables et autres démiurges augmentés à l’extrême.

Futurologie et science-fiction

La troisième partie du livre (2060-2080) ambitionne d’éclairer des scénarios possibles. Sans doute le livre aurait-il pu s’achever ici. L’auteur relaie des scénarios déjà explorés : la Fondation d’Asimov, le Meilleur des Mondes d’Huxley, Computer God de Black Sabbath, Matrix ou bien Gattacca. Autant s’abreuver directement à la source.

L’évocation de ces scénarios par un influenceur comme Alexandre a tout de même son intérêt : il alerte sur leur possibilité, même marginale et invite à déterminer l’avenir de notre civilisation. Ellul l’avait écrit avant de mourir : dérouler le fil de la Technique en s’interdisant toute interrogation est périlleux car d’autres récupéreront le pouvoir de décider à notre place : milliardaires « philanthropes », dictateurs « éclairés » ou simplement l’opinion aveugle du troupeau. Entamons une réflexion technocritique donc politique. Comme le dit l’auteur pour conclure son ouvrage : « Nous aurons l’IA que nous méritons ».

Enzo Sandré

Cet article est une recension du livre de Laurent Alexandre. Le format papier impose la concision, peu aisée pour traiter d’une œuvre aussi riche. Un article plus long, au format blog et au ton plus personnel reprendra point à point mes critiques.

Laurent Alexandre, La Guerre des intelligences
Intelligence Artificielle versus Intelligence Humaine

JC Lattès, 04/10/2017 20,90€

EAN : 9782709660846
Catégories
AF2000

Les « alternet » sont-ils viables ?

S’estimant privés de leur liberté d’expression, les groupes d’alt-right américains s’organisent face à la censure des géants de la Silicon Valley, très marqués à gauche. Posséder son propre serveur n’est aujourd’hui plus suffisant : les entreprises gérant l’infrastructure d’Internet n’hésitent pas à filtrer jusque dans les couches les plus basses du net : déconnexion de serveurs, retrait de noms de domaine, etc. Stormfront et The Daily Stormer, deux sites d’information de l’alt-right ont eu leur domaine retiré. Le site d’écoute musicale Spotify, le site de rencontre OkCupid et Paypal bannissent les prétendus « nazis » hors du web. Facebook et AirBnb ont supprimé les comptes liés à la manifestation de Charlottesville. Des centaines de comptes Facebook et Twitter sont suspendus chaque jour, y compris en France.

Pour l’instant, la censure extra-judiciaire ne concerne que les terroristes et « la haine », réelle ou soupçonnée. Les hypocrites défenseurs de la neutralité du net peuvent donc encore faire semblant de croire que cette dernière, morte depuis des années, existe toujours.

Une réussite très élitiste

Le réseau social Gab , fer de lance de la contestation, a proclamé le 10 août dernier la naissance de la « Free Speech Tech Alliance ». Cette alliance de professionnels doit permettre à terme la création d’un véritable « Alternet » : une partie d’Internet débarrassée de la Silicon Valley et de sa censure morale. Sur le papier, le projet sonne bien, mais sa viabilité est questionnable.

D’autres ont essayé avant eux, la réputation sulfureuse en moins. Depuis les années 90 les groupes crypto-anarchistes combattent l’Internet centralisé qui a accouché des fameux GAFA. Leur credo ? Les méthodes de chiffrement utilisées massivement doivent permettre la protection des échanges. Si vous envoyez un message chiffré, ce message est suspect pour d’éventuels attaquants, qui tenteront de le déchiffrer. Si vous chiffrez tout jusqu’à votre liste de courses, le volume de données sera trop important pour être traité.

Le succès de ces activistes est mitigé, malgré leur présence très importante dans le monde du logiciel libre. C’est une réussite technique très élitiste : l’essor des crypto-monnaies, des réseaux cachés, des darknets et des blockchains le prouve. Leurs seules réussites « grand public » sont la généralisation du protocole web chiffré HTTPS (car largement soutenu par la banque et le e-commerce) et la généralisation de messageries instantanées supportant le chiffrement de manière limitée (Telegram, Messenger …)

Difficile de réformer internet

Le projet de la Free Speech Tech Alliance est plus ambitieux. Une poignée de militants peut parfaitement communiquer à l’insu des services de renseignement, Daech et les fameux « hackers russes » de la campagne américaine l’ont prouvé. Pour toucher un public plus large, donc bien moins formé, il faut des outils plus conviviaux, ayant une certaine masse critique pour se faire connaître, mais surtout contrôlant toutes les couches du réseau.

Les réseaux informatiques fonctionnent comme un empilement de couches techniques (modèle OSI). La plus basse est la liaison physique, le signal électrique, lumineux, radio qui permet d’acheminer les données. La plus haute est constituée des programmes utilisant le réseau. Chaque couche est en principe indépendante des autres : on peut faire passer la même information par différents chemins sur le réseau, utilisant diverses technologies (fibre, ADSL, 4G) sans que cela change quoi que ce soit à l’arrivée.

Celui qui contrôle les couches les plus basses peut toujours censurer les couches au-dessus. Coupez le câble réseau, l’application la plus performante tombe. Un site Internet, un service de noms de domaine (DNS) se situent tous sur la dernière couche du réseau. Les géants du net contrôlent les couches inférieures : ils peuvent censurer à volonté.

Si l’alt-right a pour ambition de créer son propre safe-space sur Internet, elle devra bâtir toute une infrastructure. Elle doit donc posséder à minima : ses hébergeurs[1], ses bureaux d’enregistrement de noms de domaine[2], ses autorités de certification[3], ses fournisseurs d’accès à Internet[4] et ses transiteurs de contenu[5]. Tous ces acteurs doivent être utilisés par une certaine masse de sites lambda afin d’être indispensables à la vie d’Internet et ne pas se faire censurer. S’ils ne sont utilisés que par l’alt-right, ils seront rapidement mis au ban d’Internet. Chacun de ces acteurs nécessite des millions de dollars d’investissements, plusieurs années de dissimulation et des centaines de professionnels. L’alt-right a-t-elle les épaules de ses ambitions ?

Je n’ai évoqué ici que les cas des USA. Dans les pays où l’état se mêle de liberté d’expression comme en France, il faut aller bien plus loin, parfois contre la loi ce qui rend toute solution grand public complètement irréaliste. Dans notre pays, l’Internet libre ne sera toujours qu’un fantasme. Sauf changement politique radical, la liberté d’expression ne pourra qu’être le luxe d’une avant-garde de techniciens.

Enzo Sandré

[1] Mettent des machines connectées 24/24 à disposition de clients : sites Internet ou logiciels divers.

[2] Permettent de retrouver une ressource à partir d’un nom simple à retenir : enzosandre.fr par exemple

[3] Délivrent des certificats permettant de s’assurer qu’un contenu est bien émis par qui de droit

[4] Connectent les particuliers au réseau Internet, ils sont la première ligne de la censure.

[5] Les « plombiers » du net : ils connectent tous les acteurs ci-dessus entre eux via de vastes réseaux régionaux

Catégories
AF2000

Le vice-amiral Coustillière se fiche des backdoors

La nomination du vice-amiral Coustillière comme DGSI[1] du MINDEF est mal passée auprès de certains experts français de la cybersécurité. En cause : une déclaration datant d’un an dans laquelle le gradé déclare que les principales failles de sécurité ne viennent pas des portes dérobées[2] introduites dans les logiciels de Microsoft et qu’il « se fout de ce débat ».

Au-delà de son manque de subtilité, l’Amiral n’a peut-être pas tort. Dans le cadre de l’OTAN, nos systèmes militaires n’ont en théorie rien à craindre des américains, nos « amis ». Il est même plus utile que tous les pays alliés travaillent sur une base logicielle commune.

Si la souveraineté de la France intéresse tant les experts de la cybersécurité française, qu’ils demandent d’abord la sortie de l’OTAN, ils n’en seront que moins hypocrites.

Enzo Sandré

[1] Directeur général des systèmes d’information

[2] Failles de sécurité intentionnellement introduites par l’éditeur du logiciel, notamment sur demande de services de renseignement (NSA, CIA …)