Catégories
Brave-new-world

Investor-State Dispute Settlement

Dix histoires édifiantes.

Imaginez qu’une entreprise se lance dans un projet aux effets dévastateurs pour l’environnement
ou la collectivité, tel qu’une mine susceptible d’empoisonner les ressources en eau de votre région, ou un chantier immobilier de luxe qui forcerait des centaines de personnes à abandonner leur maison. Fort du soutien de votre communauté, vous vous y opposez, les tribunaux statuent en votre faveur et c’en est fini du projet. Du moins le croyez-vous. Mais l’entreprise à l’initiative du projet n’a pas dit son dernier mot et poursuit votre pays pour ingérence dans ses activités. Elle lui réclame des millions voire des milliards de dommages et intérêts, y compris pour d’hypothétiques bénéfices à venir. Imaginez alors que la nouvelle action en justice soit intentée dans une pseudo-juridiction partiale dont les décisions antérieures ont été si catastrophiques pour les pays attaqués que nombre d’entre eux préfèrent jeter l’éponge, parfois même avant que ne tombe la sentence, et acceptent alors de concéder aux multinationales des avantages, quitte à fragiliser leur propre législation.

Catégories
Brave-new-world

eXplainable AI?

Appréhendant un possible nouvel « hiver » susceptible de venir geler les retombées économiques de l’intelligence artificielle, les philanthropes de PricewaterhouseCoopers proposent une piste pour sauver ce marché dynamique.

Le problème : le public voudrait être bien sûr que l’IA, oracle aux voies impénétrables, prend ses décisions en accord avec les « principes éthique de base », et les executive managers exigeraient un « bouclier » contre les éventuelles conséquences « inattendues » des algorithmes et leurs possibles conséquences en terme de « réputation ».

Bref, pour sauver la promesse d’un gain de PNB de 15 000 milliards de dollars d’ici à 2030, PwC recommande d’investir dans une Intelligence Artificielle capable d’expliquer ses décisions.

Mais que veut dire expliquer ?

On pourrait argumenter que la force du machine learning et autres deep neural networks, comparés aux anciens systèmes à base de règles, est de ne pas être contraints à définir leur processus de décision par le truchement de la parole et des mots. Autrement dit : ne pas être contraints à être explicables. En effet, on conçoit bien qu’un réseau neuronal comportant plusieurs dizaines de milliards de paramètres numériques ne puisse pas être facilement compressé en un texte, même long de quelques milliers de pages.

Donc, que veut dire expliquer ? S’agit-il, comme le ferait un mathématicien, de compléter l’éclair initial intuitif et créateur par une preuve rigoureuse et analytique ? D’utiliser notre cerveau lent pour confirmer la trouvaille de notre cerveau rapide ? (cf Thinking, Fast and Slow, Daniel Kahneman).

La réalité est sûrement plus mercantile. Il n’est pas question de démontrer la vérité mais plutôt de « construire la confiance », c’est à dire fabriquer le consentement. Entre les lignes, on comprend qu’il s’agit au mieux de vulgariser (permettre au public de « comprendre en gros comment les variables en entrée influent sur le résultat en sortie »), au pire de manipuler : en même temps que fournir une décision, fournir les éléments de langage pour la faire avaler par le public.

Et on peut imaginer un futur radieux où l’IA au service de la politique de quelques uns proposerait à la fois les textes législatifs et la com’ assurant le service après-vente. Bref, libérer les énergies et aplanir les obstacles à l’avénement de la douce promesse à 15 000 milliards de dollars.

Would somebody please throw a wrench into the works?