Intelligence artificielle : avons-nous besoin d’une nouvelle éthique des machines ?

L'apprentissage machine et l'intelligence artificielle suscitent beaucoup d'inquiétudes - l'éthique des machines devrait résoudre les problèmes. Cependant, ce qui compte, ce n'est pas l'éthique des machines, mais les actions responsables des personnes qui sont derrière l'IA et qui la développent.

L'inédit : la technologie continue de se développer

Des processus d'apprentissage sont nécessaires pour les systèmes autonomes, tels que les robots messagers, les voitures automotrices ou les collègues robots dans l'usine. Ils doivent être capables de faire face à des surprises. Les systèmes d'apprentissage sont fondamentalement nouveaux. Traditionnellement, les humains ont produit des dispositifs techniques conçus pour des objectifs, des fonctions et des caractéristiques spécifiques. Les systèmes d'apprentissage peuvent toutefois se modifier d'eux-mêmes.

La technologie de l'apprentissage a une vie propre. Les propriétés des algorithmes peuvent changer de manière imprévisible. Les raisons de l'apprentissage sont aussi imprévisibles que les résultats de l'apprentissage.

C'est la provocation de l'intelligence artificielle : la technologie ne reste plus telle que l'homme l'a conçue, mais reçoit la capacité et le mandat de se développer davantage.

Les machines décident - Perte de contrôle par l'homme ?

Est-ce une perte de contrôle pour les humains ? Les voitures autonomes décident-elles elles-mêmes de la vie ou de la mort ? Tous les cas de situations de dilemme sont basés sur cette hypothèse. Mais c'est une erreur. Parce que la technologie, en l'occurrence l'ordinateur de bord, ne décide pas toute seule, par une sorte d'éthique informatique qu'elle aurait elle-même inventée. Sinon, il devrait être possible de poursuivre l'ordinateur ou l'algorithme en justice si de mauvaises choses se produisent. Mais l'ordinateur ne fait que rembobiner un programme, rien d'autre.

Ce programme est créé par l'homme et prend des décisions selon des critères créés par l'homme. Les programmeurs des entreprises de sous-traitance pour l'industrie automobile produisent ces programmes, selon les spécifications des dirigeants et des autorités et en s'appuyant sur des directives éthiques qui ont été légitimées démocratiquement au niveau politique. Ainsi, si le pire devait arriver, ce ne serait pas l'ordinateur de bord qui serait inculpé et éventuellement condamné à une amende ou à l'emprisonnement, mais les personnes qui sont responsables de son fonctionnement.

La décision de vie ou de mort appartient à l'être humain, même dans le cas de voitures automotrices. Cependant, il devient de plus en plus difficile de savoir qui est réellement cette personne. Cela pose à nouveau la question de la responsabilité éthique et juridique des véhicules autonomes. Contrairement aux conducteurs humains concrets d'aujourd'hui qui font du mal à d'autres personnes, personne ne se sentira vraiment responsable dans une situation de dilemme.

Parce qu'on ne sait pas très bien qui est responsable des décès, de la santé ou des dommages matériels : les programmeurs, leur conseiller éthique, le forum des fournisseurs, le constructeur, les gestionnaires ou les exploitants de la voiture autonome ? Cela doit être clarifié sans aucun doute et d'une manière juridiquement sûre. Les règles éthiques, qui sont intégrées dans le logiciel sous forme d'algorithmes, déterminent comment une voiture autonome réagit dans des situations problématiques et qui est alors lésé. Les principes selon lesquels cela se produit doivent être transparents. Ils doivent se refléter dans l'éthique et être également discutés publiquement si nous voulons avoir la certitude que lorsqu'il s'agit de prendre des décisions sur la vie ou la mort, ce n'est pas aveuglément une machine qui est décisive, mais les considérations humaines prudentes qui la sous-tendent.

Apprendre oui - mais quoi qu'il en soit ?

Les systèmes autonomes doivent apprendre, l'IA offre les possibilités techniques pour cela. Mais l'apprentissage est-il toujours automatiquement bon ? Que se passerait-il si les auteurs autonomes apprenaient qu'ils peuvent progresser plus rapidement en conduisant de manière agressive et ainsi générer un meilleur retour sur investissement pour leurs opérateurs ? Ou encore, pensez à l'algorithme d'apprentissage sur Internet, qui a été utilisé à titre d'essai dans un réseau social dans le but de maximiser la réponse à vos messages ! En quelques heures, il est devenu radical de droite. En d'autres termes : l'IA doit apprendre dans leur environnement respectif. Mais cela signifie que dans une société majoritairement nazie, un robot contrôlé par l'IA deviendrait un robot nazi.

L'IA n'a pas la capacité humaine de distinguer entre l'être et l'être destiné. Ils apprennent simplement en étant - et cela ne doit pas toujours être bon. C'est là que l'attention éthique et, éventuellement, des garde-fous intégrés légitimés sur le plan éthique sont nécessaires.

Une nouvelle éthique des machines ?

Non, nous n'en avons pas besoin. Nous avons une éthique, souvent plus que suffisante. Nous ne les appliquons pas bien, nous n'en tenons pas compte dans nos actions, nous faisons passer le commerce avant l'éthique. Nous savons tout cela, c'est déjà écrit dans la Bible.

Au lieu d'une nouvelle éthique de la machine, nous avons besoin de la maturité numérique. Nous devons comprendre ce qui se passe. Nous ne devons pas croire que la numérisation est un phénomène naturel et que nous devons simplement nous adapter. Non, la numérisation est aussi le fait de personnes, principalement dans les entreprises et les groupes de données. Ils ont des valeurs et des intérêts qu'ils programment dans les systèmes. De cette façon, ils imposent leurs valeurs à des millions de personnes. Le fait d'aller jusqu'au bout et de ne pas simplement l'accepter, mais d'exiger des offres et des services numériques éthiquement meilleurs, serait l'expression de la maturité numérique. Et nous devons clarifier les responsabilités et les compétences avec précision.

Il ne doit pas y avoir de zones d'ombre éthiques ou juridiques. L'éthique doit être mise en œuvre par les programmeurs, les architectes de systèmes, les gestionnaires, les autorités de régulation et de surveillance.

Plan du site