«L’homme de verre existe déjà» | KPMG | CH

«L’homme de verre existe déjà»

«L’homme de verre existe déjà»

Dirk Helbing, professeur en Computational Social Science à l’EPF Zurich, explique en quoi l’éthique est selon lui un principe de réussite.

1000

Related Content

Dirk Helbing

Dirk Helbing, professeur en Computational Social Science à l’EPF Zurich, Photo: Davide Caenaro

Quelles évolutions vont influencer le plus notre vie dans les trois à cinq prochaines années?

De nombreuses données ont été recensées sur nous. Ces informations peuvent être utilisées pour manipuler les hommes, mais les hackers peuvent aussi en tirer parti. Nos habitudes d’achat mais aussi notre comportement politique et nos opinions sont influencés. Il s’agit donc d’une commande à distance de l’homme. C’est ce que l’on appelle aussi le «neuromarketing». Ce marketing personnalisé a du succès car il est adapté exactement à chaque individu. 95% des informations ne sont pas perçues consciemment. Le problème réside dans le fait que des acteurs se servent de cette méthode sans légitimité démocratique.

Quels défis éthiques y a-t-il dans ce domaine du «big data»?

Nous sommes de plus en plus contrôlés de l’extérieur. Nous perdons le contrôle individuel sur nos pensées, nos émotions, nos actes et notre vie, et nous sommes confrontés à des attaques de hackers sur les entreprises et les infrastructures critiques. Ces attaques entraînent une infiltration de la société. Il s’avère que les votes sont également manipulés au niveau national, et ce, du reste, pas seulement en Russie et par la Russie, comme on le suggère fréquemment.

Comment la société doit-elle y faire face?

Il règne une grande perplexité. Les «fake news» constituent un autre problème. On les avance désormais comme argument pour lancer des lois de censure. Mais cela n’est pas compatible avec la démocratie. Des efforts sont aussi déployés pour mettre en place des services étatiques qui informeraient sur ce que sont les «fake news» – une sorte de «ministères de la vérité». Mais si l’on compare les différentes positions de l’Etat, comme aux Etats-Unis et en Europe, on constate qu’il s’agit uniquement de veiller à ce que les élites conservent leur souveraineté en matière d’opinion. Les citoyens ne leur font cependant plus confiance.

Comment évaluez-vous les risques dans la protection des données?

Les risques sont élevés. Mais l’on ne peut pas se protéger efficacement à l’heure actuelle. Dès que vous utilisez un navigateur, il y a des cookies qui notent tout ce sur quoi vous cliquez. Et ces informations sont revendues. Dans tous ces liens, il existe de très nombreuses informations sur nous. L’homme de verre existe déjà. Nous ne pouvons y échapper car si nous n’acceptons pas les cookies, nous n’obtenons pas de service. Le fait que nous soyons espionnés à ce point est totalement inacceptable. Cela nous rend vulnérable. On dit que 300 clics sur Facebook permettent de mieux nous connaître que ne le font nos amis et partenaires. Je suis d’avis que cela ne peut pas continuer ainsi. La société est manipulée. Les hommes vivent de plus en plus dans des bulles de filtres et perdent la capacité de comprendre ceux qui viennent d’une autre culture ou nourrissent d’autres opinions.

Que devrait-on faire?

On a besoin d’une nouvelle approche. Celle-ci viendra, espérons-le, avec la nouvelle loi sur la protection des données. Nous devons intégrer les valeurs de notre société dans des systèmes technologiques. Les systèmes d’information actuels sont très puissants. Soit ils détruisent notre société actuelle, soit l’approche technologique actuelle doit changer. Un gros danger est que les droits humains soient bafoués. Les ingénieurs doivent apprendre à intégrer les valeurs des hommes dans leurs systèmes et à les protéger. C’est la raison pour laquelle l’Institute of Electrical and Electronics Engineers (IEEE) développe actuellement une directive intitulée «Ethically Aligned Design».

Qui déterminera ces valeurs?

Il existe actuellement un processus de consultation auquel on peut s’inscrire pour exprimer son opinion. De nombreuses choses sont ancrées dans la Constitution, et différents critères caractérisent la démocratie, comme la séparation des pouvoirs, le pluralisme, la protection des minorités, la participation et la transparence. Ces caractéristiques doivent aussi être garanties dans les systèmes d’information. Nous devons donc nous demander comment nous pouvons les mettre en œuvre. En ce qui concerne les systèmes d’intelligence artificielle actuels, nous sommes encore loin d’une telle mise en œuvre. Ceux-ci pourraient causer de gros dommages, par exemple aussi avec le Citizen Score.

Quelles conséquences cela a-t-il sur la société?

Notre société va fondamentalement changer en raison de la révolution numérique. Il est important que nous participions activement à cette transformation. Cela n’est pas facile parce que les acteurs ne sont pas toujours clairement identifiables. En outre, certaines personnes pensent qu’à partir de 2050, les robots prendront notre quotidien en charge et que l’on n’aura plus besoin de l’homme. Cela peut paraître une position extrême, que je ne partage pas, mais l’on voit que quelques défis nous attendent dans ce contexte.

Il faut aussi se demander ce qui doit être considéré comme censure et comment traiter les demandes de censure des entreprises.

Aujourd’hui, on a reconnu le problème de la discrimination des algorithmes. Certaines entreprises intègrent déjà l’idée de la démocratie dans le concept de leurs plates-formes d’informations.

C’est aussi une question d’éthique.

Beaucoup considèrent l’éthique comme un obstacle. Mais au contraire, elle met à notre disposition des principes qui nous aident à construire une société pacifique et durable, c’est-à-dire des principes de succès!

© 2017 KPMG Holding AG is a member of the KPMG network of independent firms affiliated with KPMG International Cooperative (“KPMG International”), a Swiss legal entity. All rights reserved.

Contactez-nous

 

Besoin de nos services?

 

Soumettre