- Microsoft a récemment obtenu un brevet controversé pour recréer une personne décédée en tant que Chatbot en utilisant ses données en ligne.
- Le concept de «ramener les morts à la vie» à l’aide de la technologie n’est pas à la pointe comme cela peut paraître au premier abord et il a déjà été promu dans le passé, générant des réactions contrastées.
- Les nouvelles avancées technologiques apportent à la fois de nouvelles possibilités et des controverses.
- Malgré les risques et incertitudes liés à la possibilité de «continuer comme une machine», il peut en effet représenter un changement positif s’il est bien réglementé
«Imaginez être sensible mais pas vivant. Voir et même savoir, mais pas vivant. Je regarde juste dehors. Reconnaître mais ne pas être vivant. Une personne peut mourir et continuer. » (Philip K. Dick, 1977)
Le 1er décembre 2020 est un jour dont nous pourrions nous souvenir à l’avenir. À la toute fin d’une année déjà particulière, Microsoft a obtenu un brevet pour créer un bot conversationnel à partir de données sociales préexistantes appartenant à une personne spécifique. La numérisation a gagné sa place particulière dans la vie humaine: mais qu’en est-il de sa place dans la mort?
Dans un avenir pas si lointain, les images et les enregistrements vocaux pourront être utilisés pour recréer une réincarnation également numérique de personnes décédées, ainsi que leurs textes privés, messages, chats, e-mails et lettres. Sans parler de tous les types de données en ligne, telles que les publications sur les réseaux sociaux. En gardant à l’esprit le volume illimité d’informations que les gens laissent derrière eux au cours de leurs efforts virtuels, il n’est pas difficile de comprendre comment suffisamment de données pour imiter la personnalité d’une personne réelle peuvent être collectées.
Apprendre à partir de modèles récurrents dans des données préexistantes n’est pas seulement une prérogative de la machine: c’est ce que nous faisons aussi. Les réactions et décisions humaines sont pour la plupart motivées par des associations inconscientes concernant des informations acquises antérieurement. Ce qui rend ce même processus différent dans l’intelligence artificielle, c’est qu’ils sont apparemment plus rapides et plus précis.
Dans le cas spécifique du brevet Microsoft, un portefeuille personnel construit à partir de matériel en ligne (tel que des conversations, des images et du contenu virtuel) peut être utilisé pour entraîner le bot à communiquer en fonction du ton, des manières, des attributs conversationnels et, finalement, de la personnalité de l’utilisateur. , tandis que les enregistrements vocaux seront utilisés pour générer une police vocale réaliste.
Cependant controversée, ce n’est pas la première fois que l’intelligence artificielle est utilisée pour ramener les morts. Le documentaire sud-coréen controversé « Vous rencontrer », diffusée en février 2020, a révélé l’expérience de la première femme à utiliser la technologie VR pour voir pour la dernière fois son enfant disparu depuis longtemps. Le même désir de retrouver un parent décédé a également poussé un jeune homme, en 2016, à créer Dadbot: un chat-bot interactif programmé pour communiquer comme le ferait son père.
Des entreprises controversées similaires ont bien sûr suscité diverses réactions. Cependant, parmi les nombreux téléspectateurs de Vous rencontrer, beaucoup ont exprimé leur soutien à la femme sud-coréenne et ont affirmé qu’ils souhaitaient avoir le privilège de rencontrer pour la dernière fois quelqu’un qu’ils avaient perdu. Selon des réponses comme celle-ci, on pourrait faire valoir que – malgré sa nature apparemment discutable – le chatbot proposé par Microsoft ne serait pas perçu comme effrayant que cela puisse paraître.
Les dilemmes éthiques à l’ère de l’intelligence artificielle
Utiliser des données sensibles appartenant à un utilisateur décédé pour le réincarner en robot apporte plusieurs implications éthiques à la table: l’une d’entre elles est une question de confidentialité. Chaque scénario impliquant l’acquisition et le traitement de données nécessite des lois de protection des données spécifiques, c’est un fait.
Malheureusement, il n’existe toujours pas de cadre juridique spécifique qui couvre les possibilités révélées par le brevet Microsoft. Afin d’éviter toute violation de la vie privée ou exploitation de données, des réglementations supplémentaires seront nécessaires pour éviter toute exploitation post-mortem des informations personnelles, exigeant donc une sorte de code pour réglementer l’autorisation de divulgation à la fois de l’utilisateur et de son parent.
Une dimension différente à considérer est la relation entre le bot et l’utilisateur. Si l’identité peut être considérée comme la persistance d’attributs spécifiques dans le temps et la stabilité de certains souvenirs à la première personne, serait-il donc correct d’affirmer que nous pourrons transférer notre identité à une machine après la mort? Quelle que soit la réponse, il serait facile de confondre l’acte de chatter avec un bot qui ressemble à une personne avec le sentiment de discuter avec un bot qui a remplacé cette même personne.
Si tel est le cas, il devrait s’agir d’un travail actif de sensibilisation à l’objectif, aux capacités et aux limites d’un produit similaire avant sa sortie, afin que les consommateurs puissent prendre des décisions éclairées appropriées, fondées sur des attentes appropriées.
Enfin, la possibilité de se réincarner dans un chat-bot relève du délicat défi du deuil. Passer à autre chose après la mort d’un être aimant est une épreuve émotionnelle, au cours de laquelle il est nécessaire de s’accommoder d’une perte pour parvenir à l’acceptation. Mais qu’adviendra-t-il d’une telle acceptation dans un monde où les gens pourront entrer en contact avec leurs parents et amis décédés autant – voire plus – avec leurs êtres vivants?
À cet égard, il n’est toujours pas clair si une IA conversationnelle construite sur une IA perdue aurait un impact négatif sur le processus de deuil; par conséquent, des objections ont été formulées sur l’idée que l’utilisation de la technologie dans ce domaine particulier ne ferait qu’exploiter la douleur et la souffrance des victimes vulnérables dans l’intérêt du profit.
Ce genre de dilemmes éthiques reste non résolu pour une raison particulière: même s’ils sont créés à partir de matières artificielles, c’est un travail humain de répondre à des questions similaires. Les robots ne sont plus un concept éloigné de l’imaginaire futuriste, mais une réalité en expansion. Même ainsi, se concentrer sur les utilisations négatives possibles est une attitude courante: des décennies de science-fiction ont éduqué le genre humain à craindre l’intelligence artificielle, conduisant à un point de vue biaisé qui empêche beaucoup d’envisager des applications possibles. Malgré cela, il est clair que chaque avancée technologique marquante de l’histoire de l’humanité était associée au défi de changer ce que les êtres humains pensent et ressentent de leur vie.
La possibilité de retrouver virtuellement un parent perdu peut ne pas ravir tout le monde, mais il pourrait être utile de trouver une clôture après des circonstances soudaines qui ont rendu impossible de dire au revoir à un être cher. L’une des leçons les plus difficiles de l’urgence du COVID-19 a été le sentiment d’impuissance à couper le souffle d’être éloigné de nos plus chers parents pendant leurs derniers moments. Les chat-bots conversationnels similaires à ceux proposés par Microsoft pourraient au moins être une solution pour réconforter ceux qui traversent ce chemin difficile.
D’un autre côté, la possibilité de parler à leurs proches vivants peut devenir quelque chose que les gens pourraient exprimer dans leur testament. Il est déjà courant de fournir des dispositions sur la façon dont nous voulons que nos souvenirs soient portés, la peur et la douleur de les laisser derrière nous. Dans ce cas, les données sensibles ne seraient utilisées qu’après l’autorisation préalable de la personne consentante et l’actualisation finale du bot pourrait être autorisée post-mortem par les parents vivants, non pas comme un désir de remplacer la personne qu’ils ont perdue, mais comme une célébration. de leur vie antérieure.
En fin de compte, accepter de télécharger des traces de leur propre vie pourrait faire partie d’un système d’inscription volontaire. Donner notre corps à la science comme moyen d’offrir un meilleur avenir à ceux que nous laissons derrière nous est un concept auquel nous sommes habitués, ainsi que de donner nos organes pour sauver la vie de quelqu’un d’autre. Dans le même cas, nous pourrions avoir à l’avenir le choix de donner notre propre esprit.
Une émission de télévision extrêmement populaire depuis plus de 50 ans maintenant, a utilisé ce concept dans l’un des épisodes appelés Silence dans la bibliothèque partie 1 et partie 2, dans lesquelles un ordinateur est construit pour permettre à l’esprit d’un enfant de vivre. Sonne familier?
Selon cet épisode, les futures personnes peuvent donner leur visage à la mort comme n’importe quel autre organe. Ces visages peuvent ensuite se matérialiser, par exemple, dans une bibliothèque dans le cadre d’un bon service client, lorsqu’un ordinateur choisit le visage que vous préférez lorsqu’il parle à un droïde d’aide.
Le concept de garder notre mémoire vivante grâce à un bot conversationnel n’est pas vraiment nouveau, mais le récent brevet Microsoft l’a rendu encore plus concret. La présence de grandes quantités de données en ligne rend cette possibilité encore plus concrète. L’ère de l’au-delà numérique est à nos portes et, bien qu’elle mène à de nombreuses questions sans réponse, il y a une chose particulière que nous devons nous poser.
Sommes-nous prêts pour cela?