Vite, remettre de l'humain dans la tech !

Chacun le sent bien : nous traversons un moment de tension où des univers entrent en collision, et où, à l’inverse, des forces nouvelles nous éloignent les uns des autres. C'est un clair-obscur où le monde d’avant n’a pas encore disparu, et celui qui vient n’est pas encore dessiné, un moment de bascule où les cartes sont rebattues ; un monde volatil où croîssent l’entropie, et désormais le ressentiment et la méfiance vis-vis de technologies dominantes qui accélèrent le tempo comme jamais.

Alors même que nous ignorons où elles vont nous emmener, de nouveaux paliers sidérants sont franchis chaque jour. Nous nous apprêtons à entrer dans une nouvelle ère technologique, celle où les ordinateurs ont des yeux et prennent des décisions, celle d’un Internet contextuel, où l’informatique spatiale (VR, AR), cognitive et contextuelle (IA), physique (IoT) va modifier notre réalité même.

Ne serait-ce pas le bon moment, pendant qu’il est encore temps, de voir comment replacer l’Homme et le vivre ensemble au centre du jeu ? D’essayer de refonder un nouvel ordre ou pacte social ?

Tenez, par exemple, et si on avait eu tout faux --entre autres-- sur la fameuse « personnalisation » permise par le numérique ?

C’est sûr, les détracteurs des médias de masse ont eu beau jeu de fustiger l’uniformisation, le non-choix, le programme, l’industrialisation, qui ont prévalu jusqu’à l’arrivée du web. Autant d’insultes, selon eux, à la liberté de chacun, noyé dans un troupeau soumis au « carpet bombing » de contenus identiques déversés à tous, à la même heure, de manière indifférenciée.

Jusqu’à ce qu’arrivent les algorithmes qui, enfin, individualisent, reconnaissent l’utilisateur, privilégient le sur-mesure pour tous, rendent possible le célèbre choix « ATAWAD » (anytime, anywhere, any device ou quand je veux, où je veux, sur n’importe quel terminal). Enfin des médias de précision qui privilégient la demande et permettent de picorer à la pièce, sans subir le gavage de chaînes, bouquets, albums, magazines …

Mais cette nouvelle économie du Moi, caractérisée par une attente forte de personnalisation, n’est-elle pas en train de favoriser un nouveau séparatisme culturel, de contribuer à fracturer le vivre ensemble ? Comment aider à « faire société » quand le lien social n’existe même plus dans le salon du foyer où chacun consomme au même moment les contenus de son choix sur des écrans différents ? Un équilibre, un juste milieu est-il possible entre culture et information pour tous, et culture et information pour chacun ? 

Quel humanisme numérique quand la réalité devient personnalisable ?

Plus largement, après trente ans de web et vingt ans de domination de la technologie, après avoir voulu « plus vite », « plus grand », « plus facile », « plus pratique », ou même « tout, et tout de suite, gratuitement » -- aux dépens du reste, l’heure n’est-elle pas venue d’essayer de s’extraire d’addictions nouvelles pilotées par des plateformes qui ont privatisé les profits mais socialisé les problèmes, de réaligner la technologie avec les intérêts d’un bien commun, de chercher les conditions d’un nouvel humanisme numérique ?

Avant que les réalités physique et virtuelle ne se rapprochent encore davantage, voire se confondent pour créer des expériences inédites et individuelles, avant que les robots n’entrent plus encore dans nos vies, brouillant les frontières entre vivant et machine, que l’informatique quantique n’exige de nouveaux terminaux, n’est-il pas temps de remettre de l’éthique dans nos nouvelles technologies ?

D’autant que nous ignorons comment ces technologies intelligentes modifieront notre façon de vivre ensemble et de travailler, alors même que de plus en plus de décisions importantes sont prises par des logiciels, qui, chaque jour, comprennent mieux nos contextes d’existence.

Avant d’en perdre le contrôle, de voir --comme toujours-- les aspects financiers l’emporter, ou de voir ces technologies déchirer davantage le tissu social de nos sociétés, il apparaît urgent de faire en sorte que les technologies intègrent des valeurs, en tous cas des repères, afin de mieux opérer en symbiose avec la condition humaine, plutôt que de systématiquement chercher à la remplacer.

 Immersion et fusion des mondes physiques et virtuels

Bientôt, il sera de plus en plus difficile de discerner les mondes physique et virtuel. Déjà Google nous montre comment il fait passer des voix de synthèse pour des humains. Car après les sites web et les applis, l’heure aujourd’hui est aux interfaces vocales, où l’on s’appuiera moins sur les écrans et les claviers, et plus sur la voix, les gestes, les regards pour se connecter avec des utilisateurs dans une conversation hyper réaliste avec des machines. Quoi de plus naturel, humain et efficace que de parler ?

Dans cette informatique ambiante, Alexa et Google Assistant sont utilisés dans la maison quand nous n’avons pas notre mobile sur nous ou que nos mains sont occupées ; des chatbots, disponibles 24h sur 24, sont déjà entrés dans les conversations quotidiennes de 200 millions de Chinois. Petites annonces, services, mais aussi religion et santé, sont au menu de ces applis et des 300.000 bots de Facebook.

Demain, nous pressentons que nous serons immergés en permanence dans une réalité augmentée, avec des gens, hologrammes et avatars, autour de nous qui… ne seront plus physiquement présents ; et parfois dans une réalité virtuelle qui trompe notre cerveau. Espérons au moins qu’un Internet sans écran nous permette de relever la tête de nos portables !

Comme l’électricité, le numérique agira en toile de fond invisible de nouvelles expériences intuitives qui ne nécessiteront même plus d’apprentissage. Mais plus les systèmes seront impalpables et opaques, plus ils seront évidemment difficiles à comprendre pour les humains !

Certes, après une sidération initiale, les gens sont moins effrayés par la technologie, mais ils restent aujourd’hui stressés, et ils veulent comprendre son impact sur leur vie, ses pouvoirs, ses limites.

D’autant que ces nouvelles technologies sont désormais si envahissantes et influentes, dans tous les secteurs de notre société, qu’elles ne peuvent rester la seule propriété d’une poignée de géants du web qui sont en train de coloniser petit à petit la sphère publique. Le web n’a pas été créé pour concentrer le pouvoir dans les mains de quelques-uns, pour aboutir à quelques zones insulaires fermées, peuplées de contenus appartenant à Facebook, Google ou Amazon.

IA : pour la première fois, l’homme va devoir cohabiter avec une autre forme d’intelligence

Certes, l’intelligence artificielle reste aujourd’hui étroite, cantonnée à la classification de textes, photos, vidéos, aux systèmes de recommandation, à la recherche personnalisée, à la détection de fraudes, aux diagnostics etc…. Certes, DeepMind a gagné au jeu de Go, mais ne sait toujours pas qu’il a battu le champion du monde ! Et aucun logiciel d’IA n’est encore doté de bon sens : quand un ballon coupe la route d’une voiture autonome, l’intelligence artificielle ne devine pas qu’un enfant risque de suivre.

Mais tout le monde sait qu’elle progresse vite ! L’accélération est permise par la quantité de big data, l’essor de la puissance informatique, et les progrès des algorithmes, notamment dans les réseaux neuronaux. Les ordinateurs sont désormais capables de lire nos émotions, d’anticiper, de prévoir.

L’IA est déjà active pour trier nos CV, gérer nos soins, nos retraites, nos choix de loisirs, de culture, d’information, décider d’un prêt, prescrire un médicament, calculer un montant d’impôt à payer, … Partout où il y a des données, elle va pouvoir améliorer services et produits, dans la santé, l’éducation, les transports, etc… Elle va nous permettre de prendre des décisions plus vite et nous donner des clés de compréhension inédites.

Allons-nous toutefois laisser à la machine la liberté de créer ses propres objectifs et ses problèmes ? Quel sera le degré de co-production homme-machine ?

Quelle part d’humanité allons-nous y injecter au juste ? Aura-t'elle un effet rétroactif sur nous et quelle forme prendra-t-il ? L’intelligence biologique pourra-t'elle profiter d’un univers saturé par l’IA normalisée ? Les robots seront-ils capables de manipulation émotionnelle ? L’empathie peut-elle devenir artificielle ? Notre inconscient sera-t-il modifié ?

Y aura-t'il une IA chinoise, iranienne, européenne ? Avec des valeurs différentes de l’américaine ? Et qui reproduit les préjugés et biais de ses concepteurs ?

Next ? L’informatique quantique

Un autre changement de paradigme se prépare dans l’informatique. Un nouveau champ investi par tous les grands pays : celui de l’informatique quantique.

Pour l’instant cantonnée aux universitaires, aux gouvernements et à une poignée de firmes, cette nouvelle informatique très complexe, qui ne se veut plus binaire et qui embarque les physiciens, va réaliser ce que les ordinateurs classiques ne savent pas faire, sera déterminante pour atteindre une intelligence artificielle supérieure et peut être aider – quand les capacités informatiques seront suffisantes et les logiciels exploitant ces possibilités disponibles-- à résoudre d’immenses problèmes comme la congestion dans les transports, à guérir de grandes maladies, ou à atténuer le changement climatique.

Mais de nouveaux terminaux seront nécessaires, effaçant encore davantage les frontières entre mondes physique, numérique et biologique, et créant de nouvelles normes.

Comment aussi gérer les rêves transhumanistes qui nous promettent la connexion de notre cerveau au cloud, la reprogrammation de notre ADN, la disponibilité d’organes cultivés « sur l’étagère », la fin du cancer, la guérison de maladies par injection de nano-robots de la taille d’une cellule, et nous annoncent un avenir fait d’être hybrides biologiques et robotiques ? Sans d’ailleurs nous préciser quels pourraient en être les effets secondaires !

Quelques pistes

Comment donc réussir la nouvelle alliance inévitable des hommes avec les machines dans notre intérêt ? Sinon en embarquant dès le départ plus d’empathie, de sensibilité, de culture, et surtout de transparence et de traçabilité.

Au moment où la société semble se fracturer entre les tenants de l’ordre, voire de l’autoritarisme, et les partisans de l’individualisme et de l’autonomie, n’est-il pas opportun de vite s’accorder sur des repères, voire un nouveau pacte social, et de nouvelles règles, pour protéger notre démocratie, notre santé mentale, nos relations sociales, nos enfants d’une technologie hors-sol ?

Car la technologie n’est pas un secteur à part, c’est bien comme l’explique l’entrepreneur Anil Dash « une méthode de transformation des systèmes culturels et institutionnels actuels ». Elle accélère et amplifie les comportements humains. Elle peut aussi modifier la manière dont les gens interagissent et, partant, profondément bouleverser notre vivre ensemble.

Ethics by design

Le numérique ne vient pas de nulle part. L’informatique est la conversion de la pensée humaine dans les machines. Et la technologie n’est pas neutre : elle est produite par la société et reflète les intentionalités de ses concepteurs. Hélas, souvent obscures.

L’IA elle-même n’est pas si artificielle : elle est imaginée par les hommes, produites par eux, pour agir comme eux, et pour impacter leurs vies. Nous en avons déjà tous dans nos poches, et en aurons bientôt tous dans nos corps.

D’où la nécessité désormais pour les acteurs de ces technologies désormais de progresser en humanités, de travailler beaucoup plus étroitement avec les sciences sociales, d’intégrer en amont les possibles conséquences humaines, d’enchâsser les impératifs démocratiques et juridiques dans la conception des machines, d’y intégrer aussi des modes d’organisation de la société, d’éducation des jeunes, etc…. Pour reprendre la main sur le fait numérique, se le réapproprier, retrouver des espaces de choix et de liberté. Et surtout de ne pas en laisser la conception aux seuls ingénieurs et designers.

Certains parlent ainsi d’une nouvelle exigence à placer dès le stade de la conception technologique : « ethics by design ».

Car aujourd’hui, on voit bien que des erreurs conceptuelles de ce nouveau monde continuent d’être commises sans contrôle, sans contre-pouvoir, sans supervision ; que les responsables, les dirigeants de ces nouveaux géants, désormais soucieux comme les autres d’extraire du profit pour le distribuer aux actionnaires, concentrés dans une zone géographique de quelques centaines de kilomètres carré, ont perdu le sens des réalités.

Combien d’autres scandales Facebook/Cambridge Analytica allons-nous devoir subir ? Comment remettre du bien commun et du social dans les "réseaux sociaux" ? Ou même simplement de l’intelligibilité, de l’équité, de la transparence, du contrôle ?

Mais il n’y pas que les réseaux sociaux !

Les problèmes sont de plus en plus nombreux :

  • Problèmes de sécurité, quand l’inventeur du web dit que sa création a été militarisée et que les ingénieurs avouent se reposer sur des modèles qu’ils ne comprennent plus.
  • Problèmes de santé publique, quand l’addiction, la manipulation et la perte d’autonomie sont possibles, la santé mentale des enfants devant les écrans est en jeu et notre mémoire comme notre sommeil en danger.
  • Problèmes démocratiques, quand la désinformation se répand et que des élections sont biaisées.
  • Problèmes de vie privée, quand la surveillance est devenue le modèle d’affaires des firmes les plus puissantes du monde.
  • Problèmes économiques, quand la puissance des monopoles tue dans l’œuf toute concurrence.
  • Problèmes de liberté, quand les plateformes décident seules ce qu’elles peuvent censurer.
  • Problèmes d’arrogance, quand personne, ni les politiques, ni les juristes, ni les journalistes n'est capable en réalité de comprendre ces technologies.
  • Problèmes écologiques, quand l’adoption des dernières technologies à la mode impliquent la consommation de quantités de plus en plus importantes d’énergie, d’espace ou de ressources rares.

Comment donc retrouver un monde numérique plus humain et plus adapté à l’avenir que nous souhaitons ?

De la nécessité de superviser l’IA

En démocratie, tout pouvoir est équilibré par un contre-pouvoir !

Qui donc surveille l’IA ? Qui en est responsable ? Qui a les mains sur le volant et les yeux sur le tableau de bord ? Qui peut l’expertiser en cas de sinistre ?

Il ne faut donc pas laisser l’intelligence artificielle et les algorithmes dans les mains de quelques-uns, de quelques firmes numériques et de quelques milliers de développeurs, même si leur bonne foi n’est pas en cause.

Incapable de s’autoréguler, le secteur, dont les dirigeants ont bien souvent perdu le contrôle de leur plateforme, a besoin que des lignes rouges éthiques soient tracées par des régulateurs démocratiques. A condition que ceux-ci soient à la hauteur des enjeux afin d’éviter qu’ils ne passent à côté du sujet, comme lors la récente audition de Mark Zuckerberg au Congrès américain.

Ne faudra-t-il pas aussi déterminer un ordre de justice, une légalité numérique ?

Et former bien davantage nos responsables politiques. Par exemple, pour qu’ils anticipent un nouveau mode de société, qu’ils s’assurent au moins que l’IA crée autant d’emplois qu’elle n’en détruit et qu’ils comprennent que les infrastructures réseau des telcos sont aujourd’hui une ressource critique du bien commun. Personne ne réagit quand McKinsey annonce il y a quelques mois que d’ici 2030, entre 400 et 800 millions d’emplois vont être menacés par l’automatisation !

Le miracle technologique américain est le fruit d’une coopération étroite entre pouvoirs publics, universités et secteur privé. Accentuons encore cette hybridation. Aujourd’hui la Chine, l’autre grand de la technologie, est en train de nationaliser ses pépites. Le bien commun de force, en quelque sorte !

C’est d’autant plus important que les géants du web ont tendance à s’approprier progressivement les missions délaissées par l’Etat providence. Un peu comme les grands seigneurs féodaux au Moyen Age régnaient face au pouvoir royal affaibli. Forts de montagnes de données désormais suffisantes, ils pourraient bien commencer à nous faire payer leurs services, en espèces ou en labeur !

Ne laissons pas seuls les ingénieurs. Entourons-les ! Ces nouvelles technologies demandent d’imaginer une nouvelle société, avec des valeurs que nous aurons définies ensemble.

De la nécessité de reconnecter les ingénieurs avec les sciences humaines

Les développeurs devraient travailler davantage avec les psychologues, sociologues, experts des sciences cognitives. L’éthique et la morale ne sont généralement pas enseignées dans les écoles d’informatique ! Des idées qui ne sont donc forcément pas très présentes dans leur état d’esprit quand ils conçoivent un produit. Parfois faire intervenir ce type de profil sur un projet informatique peut produire de très bons résultats, comme pour le jeu vidéo à succès Fortnite.

On l’a dit, la technologie n’est pas neutre. Les données sont souvent biaisées. Les données reflètent ceux qui les produisent. Chaque fonctionnalité est le fruit d’une décision car il y a toujours quelqu’un derrière une ligne de code.

D’où la nécessité de diversifier l’origine des développeurs, des codeurs en IA, pour qu’ils reflètent mieux la pluralité des valeurs humaines, pour ne pas renforcer les divisions de la société, et ne pas favoriser des armes de radicalisation. Mais aussi de pousser les profils « non techniques » à s’intéresser et à comprendre le code.

Démocratiser, éduquer et apprendre !

 

Former les jeunes au code

Il est essentiel de généraliser l’enseignement de l’informatique à l’école dès le plus jeune âge pour préparer les enfants à agir avec l’IA. Lire et écrire ne suffisent plus, il faut d’autres savoirs, d’autres compétences, d’autres littératies. « Des savoirs issus du monde numérique et de ses critères émergents comme de ses repères propres », nous dit l’historien Milad Doueihi.

Tous nos enfants devraient connaître l’envers du décor numérique, que ce soit en apprenante à écrire du code, à démonter un ordinateur, un smartphone ou un algorithme, à trouver les bonnes données pour être conscient des mécanismes à l’œuvre, et savoir tirer parti des opportunités de la fusion physique/virtuel. Et surtout ne pas se contenter de pousser frénétiquement des boutons virtuels pour générer leur dose de dopamine quotidienne.

Il faut certes laisser les machines faire ce qu’elles font le mieux, mais aussi s’assurer que nous décodons comment les décisions sont prises.

Attention aussi à la blockchain, que peu de gens comprennent et qui peut déresponsabiliser les individus en automatisant la confiance sous traitée aux algorithmes. Il s’agit de ne pas nécessairement faire les choses parce qu’on peut les faire, et de travailler plus sur le langage et la représentation pour rendre accessibles ces évolutions à tous afin de favoriser l’inclusion numérique.

Apprendre à apprendre

La technologie change si vite qu’il faudra acquérir la capacité d’apprendre des choses nouvelles tous les ans, se former tout au long de la vie et contribuer à inventer les métiers de demain. D’autant que beaucoup de gens ne savent pas encore qu’ils sont dans le viseur de l’IA. Hélas, les outils numériques ont été conçus pour nous pousser à consommer et pour extraire nos données, pas pour apprendre !

Apprendre aussi à renforcer notre discernement.

Un enfant ou une personne âgée ne sait pas forcément que le robot n’a pas d’émotion, et aura au contraire tendance à l’anthropomorphisme. En nous permettant d’être en contact quotidiennement avec des inconnus du monde entier, Internet a aussi changé la manière dont nous accordons notre confiance. Il nous faut donc réapprendre le discernement. Peut-être en créant de nouveaux espaces numériques publics, en rétablissant la possibilité de remonter aux codes source des applications, etc…

Défendre notre liberté d’attention

A l’ère de la distraction et de la fragmentation de l’attention, et avec le hashtag #DeleteFacebook, nombreux sont ceux qui veulent rompre avec une addiction qui leur enlève de la liberté, et donc de l’humain.

Le prix payé pour profiter de la gratuité n’est-il pas finalement trop élevé ? Et si le péché originel était un modèle d’affaires pernicieux basé sur la publicité, donc sur l’attention, l’émotion et la polarisation ? Car pour assoir leur domination, Facebook et Google doivent accroître chaque jour cette captation de notre attention. Pas seulement pour nous distraire, mais avec le risque de nous manipuler et de nous faire abandonner autonomie et liberté de pensée.

Quand le temps passé sur nos mobiles devient plus important que celui passé avec nos proches, quand l’assuétude à la techno et aux écrans risque d’entraver le potentiel de nos jeunes, quand notre temps de cerveau disponible est systématiquement transformé en marchandise, quand nos ressources attentionnelles sont limitées et incapables d’absorber le volume d’informations auquel nous sommes exposés, ne faut-il pas revoir notre usage du temps, retrouver son juste prix et un peu d’espace mental en refusant d’être sans cesse interpellés par une réclame et par la tyrannie des petites pastilles rouges sur nos mobiles (souvent assorties de chiffres anxiogènes) qui nous crient : « attention ! x messages non lus, y tâches non accomplies, application non mise à jour, rdv à venir, etc » ? 

 Remettre de l’humain c’est aussi remettre du passé et de l’avenir dans notre quotidien. Lutter contre la dictature du présent (voire de l’urgence), qui nous enferme dans un présent perpétuel, qui « réduit le passé à quelques images mémorielles éparses et interdit toute perspective de futur qui ne soit pas le prolongement du présent », selon l’historien Jérôme Baschet.

Dans l’accélération actuelle, nous sommes devenus « malades de notre rapport au temps », malade des pressions « sans cesse accrues sur nos ressources temporelles » pour faire davantage par unité de temps et pour améliorer les normes de productivité.

Comment faire pour insérer aussi des perspectives de long terme dans les infrastructures logicielles ?

Démocratiser les données

 Remettre de l’humain dans les données c’est d’abord reprendre du contrôle sur leur utilisation. Pouvoir notamment la refuser, comme quand elles sont par exemple utilisées par Google pour entraîner les drones du Pentagone, ou servent les systèmes d’armes autonomes.

 C’est aussi y remettre de l’économie. C’est-à-dire donner une valeur connue à nos données, créer des marchés où l’analyse de données a une valeur, notamment dans la musique ou le journalisme. Le « big data » n’est pas suffisant, il faut les bonnes données, sûres, smart, inclusives. Sans contexte, elles ne valent rien.

Il faut aussi que les dirigeants les regardent et les comprennent ! Trop peu le font aujourd’hui dans les médias.

 C’est également mieux protéger notre vie privée. Les plateformes aujourd’hui et demain nos robots compagnons, auront accès à nos vies privées, nos goûts, nos relations, nos déplacements, nos discussions, sans compter le piratage. Nous devrions avoir aussi la possibilité de demander la disparition de certaines données après une transaction, même si cela rend l’utilisation moins fluide. Ou au contraire à être rémunéré en cas d’utilisation par des tiers.

C’est surtout les partager. Déjà beaucoup de données publiques sont en accès libre. Le partage avec les mondes universitaires des chercheurs est crucial. La France souhaite notamment exiger des Gafa l’accès aux données d’intérêt public. Pourquoi ne pas s’inspirer davantage de la science où il n’y pas que la compétition et où existe aussi la coopération ?

Médias : faudra-t-il choisir entre l’éditeur et la machine ?


Archi-dominée jusqu’au web par une logique de l’offre, la consommation de médias (et de pub !) est désormais pilotée par une triple recommandation : la recommandation éditoriale classique des producteurs, rédacteurs-en-chef, directeurs d’antenne, agences, qui tous visent des audiences ; la recommandation sociale des « amis » dans les réseaux sociaux qui visent des tribus ; et la recommandation algorithmique des machines qui visent des individus de mieux en mieux connus.

Y-a-t-il donc de la place entre Netflix, Amazon et Spotify qui n’utilisent que la 3ème (même si ce sont des professionnels qui achètent ou produisent les œuvres) et des éditeurs traditionnels qui pensent tout savoir de leur public ? Le consommateur sait-il faire (et apprécie-t-il) la différence entre des contenus recommandés par des machines ou par des éditeurs ? Comment lui redonner le goût de la découverte, de l’excursion hors des sentiers battus par les algorithmes ?

Nous sentons bien que la valeur est dans le lien. Même quand on fait un selfie, c’est pour le… partager ! Le but est de faire partie d’affinités électives. Mais les communautés ont changé. L’entrée par âge n’est plus pertinente : aujourd’hui cela peut être le territoire, le milieu socio-professionnel, l’école, l’environnement culturel. Les critères passent désormais par la musique, les jeux vidéo, les séries. De nouvelles formes d’appartenance se créent. Des multi appartenances, même, qui se font et se défont, et fluctuent au gré des connexions.

Vers une personnalisation de masse

Parions que c’est le délicat équilibre entre les trois formes de recommandation qui s’imposera. L’intelligence artificielle permettant de trier, séparer le bon grain de l’ivraie, réduire le bruit d’Internet, rêver à une pertinence de goût ; les réseaux sociaux jouant leur rôle de bâtisseur de communautés ; et les éditeurs nous faisant rencontrer l’heureux hasard de découvertes.

Les gagnants du nouveau design relationnel offriront ainsi la meilleure « découvrabilité » des œuvres au sein d’un autre trépied clé des nouveaux médias numériques : contenu, contenant et contexte.

A condition aussi que les médias se dotent de responsables des données et de l’IA, et surtout que le management comprenne de quoi il s’agit pour pouvoir poser les bonnes questions. C’est aussi leur chance de pouvoir lutter contre des plateformes mondiales qui se veulent universelles, mais qui évoluent dans un monde multiculturel où les sensibilités sont bien différentes.

Déjà apparaissent d’ailleurs des curateurs de Spotify pour rendre les playlists plus humaines. Le tri humain devient ainsi un produit de luxe !

Fake news ou le danger de voir chacun détenir sa propre vérité

 Une démocratie se bâtit aussi sur une vision du monde à peu près partagée et une culture commune. Que se passe-t-il quand elle n’existe plus ? Quand les algorithmes promeuvent des fausses nouvelles autant que les bonnes ? Quand des technos, qui permettent de contrôler les masses, favorisent l’entre-soi paranoïaque et complotiste ?

Que faire si la véracité se base comme le reste d’Internet sur deux principes : la popularité et la personnalisation, clés des algorithmes de Google ?

Comment stimuler l’esprit critique du citoyen quand les technologies actuelles de « deep fake » ne lui permettent plus de faire la différence entre une voix humaine et une voix de synthèse ; quand des photos et des vidéos bidons se font passer pour de vraies actualités ?

Faudra-t-il, pour préserver notre démocratie, apposer, comme pour les fruits, une étiquette, « garanti sans algorithme » ou « vérifié par un humain » ?! 

L’art, peut-être une clé  

 Espérons aussi que les nouveaux styles artistiques, dopés à l’IA, (arts visuels, arts plastiques, arts de la scène, design, littérature, jeu vidéo, etc.) ne soient pas dévitalisés et optimisés davantage pour leur valeur de reproduction algorithmique (c’est-à-dire de potentiel viral sur réseaux sociaux) que pour leurs originalités créatives.

La part qu’ils vont laisser à l’aléatoire – et que nous allons découvrir progressivement – pourrait nous permettre d’assister à de nouvelles formes, en ce moment encore en gestation, et comme toujours dans la création artistique révolutionnaire, nous aider à voir le monde autrement.

Conclusion

Les années 80 avaient annoncé le règne du desktop, les années 90 celui d’Internet, 2000 celui des mobiles, 2010 celui de l’intelligence artificielle, qui va plus vite encore que les précédents, avant l’avènement bientôt des réalités altérées (AR/VR), des interfaces cerveau-machines, et de l’informatique quantique.

Mais vingt ou trente années de domination technologique ne se corrigent pas dans l’instant. La nouvelle trajectoire va être lente à trouver. Le rythme de l’évolution humaine (biologique, culturelle, sociologique) est bien moins rapide que celui de la technologie, sans cesse en renouvellement. Et l’éthique et la morale ne sont pas facilement informatisables. Reconfigurer Internet tout en travaillant sur les humanités, c’est se confronter à l’inspiration créatrice, l’imagination, le grain de folie, la vulnérabilité, l’imparfait, face au numérique froid. Faire en sorte aussi que les machines suscitent des nouvelles couches de créativité humaine, sans la remplacer.

Déjà sous perfusion d’IA, dépendants des plateformes notamment pour la culture, l’info, la musique, le cinéma, nous serons probablement aidés demain dans chaque tâche par un assistant virtuel qui prendra des décisions et agira à notre place.

Comment habiter ce futur monde « phygital » avec une vision inclusive et sociale ?  

Quelle manière d’être humain ensemble quand les machines nous connaîtront mieux que nous-mêmes ? La pensée algorithmique nous donnera-t-elle accès à une complexité supérieure ? Pourrons-nous prendre des décisions autonomes ? Ou devrons-nous en abandonner une partie aux machines ou au collectif ? Toute résistance est-elle futile si nous devenons des cyborgs ?

L’intelligence artificielle, l’informatique quantique, créées par les humains, en sont encore au stade du design, à l’âge infantile. Ce sont aussi nos créatures. A nous d’en être les bons parents pour les guider et leur donner des limites. Mais l’espèce humaine ne sait toujours pas vraiment comment opérer ces technologies horizontales et surpuissantes

Face à l’inédit, il faut des méthodes nouvelles. Ce monde nouveau ne vient pas avec des instructions. Pour faciliter ce projet de réhabilitation humaine, faut-il créer une nouvelle instance -- évidemment internationale-- autour d’une éthique du numérique ? Un serment d’Hippocrate 2.0 ?

Il existe aujourd’hui une tension perceptible entre la technologie et les humanités, dans l’entreprise, comme dans la société. Lutte entre d’un côté, les techno-béats, qui convaincus que la technologie sauvera le monde, en font un totem, une idole qui protège, abdiquant au passage une partie de leur liberté et surtout de leur responsabilité ; et de l’autre ceux qui, rejetant le biais utilitariste, n’entendent pas être manipulés, contrôlés, jugés, classés, au risque de devenir les Luddites du XXIème siècle.

Les géants du web commencent toutefois à exprimer des regrets, reconnaissant les aspects addictifs, voire destructeurs de leurs services, et semblent prêts à assumer plus de responsabilités. C’est un début. Mais ce ne sont pas les géants de la tech qui vont nous sauver, ni les fameux « 1% » qui n’en savent pas plus que nous, mais bien nous-mêmes et les humanités.

Former et développer l’esprit critique, sauvegarder notre espace mental et notre conscience, inventer de nouvelles formes de sociabilité en dehors d’Insta ou de Snap, tout en protégeant notre condition humaine partagée, notre dignité, notamment celles des plus faibles. Car si elles sont entamées, il sera plus difficile de résister aux totalitarismes, voire aux alliances de circonstance entre géants monopolistiques et régimes autocratiques.

C’est le bien commun qui nous unit. Nous n’y arriverons que si nous nous unissons pour ce bien commun, même si -- quoi qu’en disent les universalistes -- être humain ensemble n’est pas encore la même chose à Los Angeles, Pékin, Dakar ou Oslo.

Or l’humanisme est probablement un des traits identitaires les plus forts de l’Europe qui est en mesure, ici, de donner l’exemple (protection de la vie privée, démocratisation des données, …) au moment où l’Amérique ne se sent plus responsable de l’architecture du monde libre et ouvert. Même si le vocabulaire du code, de l’IA et des interfaces vocales est anglais, le numérique est mondial, pas américain ou chinois.

A nous aussi de définir nos intérêts et pas seulement nos valeurs, de préserver les opportunités du progrès, de ne pas devenir seulement les champions de l’éthique, pendant qu’Américains et Chinois deviennent les champions du business !

Pas facile de remettre de la démocratie, de la citoyenneté, du bien commun, du juridique éclairé, du temps long, d’aligner nos valeurs sur notre vision souhaitable du long terme avec la super IA, de reprendre du contrôle sur nos données, de partager et de faire connaître l’éthique choisie dans une économie qui va justement être guidée par l’IA dans un capitalisme de surveillance. Même s’il faudra peut-être accepter un compromis en sacrifiant de la transparence (on le fait déjà avec les médicaments) et reconnaître que certaines choses sont difficilement intelligibles. Sans doute faudra-t-il aussi instaurer un filet social pour assurer une transformation pacifique de notre société. Et surtout se préparer !

On craint évidemment cette super intelligence artificielle, mais on voit aussi comment la méga bêtise humaine est souvent en train de l’emporter ! Peut-être devons-nous aussi nous poser la question : pourquoi mettre autant d’argent à améliorer l’intelligence des machines et pas celles des hommes ? L’investissement d’avenir dans le numérique, c’est bien l’humain !

Eric Scherer

-------------

PS : nous développerons ces sujets dans notre Cahier de Tendances Méta-Media N°15, Printemps - Eté 2018 , avec de nombreux témoignages et analyses d'experts et comme toujours notre sélection des meilleurs livres qui en parlent.

Le cahier sera disponible ici, sur Méta-Media en PDF gratuitement début juin.

 (Illustration de couverture : Jean-Christophe Defline)