Sophia Velastegui, aujourd’hui membre du comité consultatif national sur l’IA de la Fondation nationale des sciences (NSF), n’a pas toujours envisagé une carrière dans l’intelligence artificielle.
Diplômée en génie mécanique de Georgia Tech, elle débute chez Apple en 2009, où elle travaille sur des projets révolutionnaires, comme les premiers modèles de MacBook Air et d’iPad. Très vite, elle se passionne pour les applications alimentées par l’IA, captivée par leur potentiel à créer des expériences personnalisées pour les utilisateurs. Après un passage chez Google, puis chez Microsoft, elle devient l’une des figures majeures de l’innovation IA, contribuant à infuser des produits comme Bing, LinkedIn et PowerPoint avec des capacités d’intelligence artificielle.
Lire aussi :
- Comment les experts estiment-ils que l’IA générative peut être régulée sans nuire à ses avantages potentiels ?
- Quels sont les principaux défis éthiques et légaux abordés lors de TechCrunch Disrupt 2024 pour encadrer le développement de l’IA ?
La nécessité d’une diversité accrue dans le secteur
Pour Velastegui, le manque de diversité au sein des équipes d’IA représente un défi urgent et critique. Les équipes composées majoritairement d’hommes sont plus susceptibles de générer des biais dans les systèmes d’IA, créant des technologies qui ne reflètent qu’une partie limitée de la société. Velastegui souligne l’importance d’avoir des femmes aux premières lignes de ce secteur pour enrichir les perspectives et éviter le « groupthink ». Elle encourage les femmes à s’investir dans l’IA et à prendre la parole dans leurs entreprises, pour que leurs voix et leurs expériences participent à la création d’une IA véritablement représentative de tous les utilisateurs.
Ralentir pour une IA éthique et sécurisée
L’IA avance aujourd’hui à une vitesse sans précédent, un rythme que Velastegui juge préoccupant en l’absence de cadre éthique partagé. Elle craint que cette progression effrénée ne compromette la sécurité et la qualité de la technologie, menaçant de créer des systèmes mal adaptés aux besoins réels des utilisateurs. Pour elle, il est essentiel de mettre en place une approche centrée sur l’humain, en veillant à apprendre des erreurs passées. Elle préconise la formation de conseils diversifiés au sein des entreprises, dédiés à évaluer les risques et à apporter des recommandations pour un développement responsable de l’IA. Une IA éthique ne peut se construire que si elle est guidée par des retours réguliers et adaptés au contexte, affirme-t-elle.
Vers une intelligence artificielle inclusive
À travers son rôle au sein du comité de la NSF, Sophia Velastegui s’efforce aujourd’hui de relever les défis fondamentaux liés à l’IA, en particulier la représentation numérique et l’élimination des biais. Elle soutient qu’une IA inclusive et éthique est possible, à condition d’intégrer une diversité de points de vue dans sa conception et de promouvoir une régulation rigoureuse pour encadrer son déploiement. Selon elle, c’est en engageant des développeurs issus de milieux variés, en particulier des femmes, que l’IA pourra véritablement répondre aux besoins de tous. Seule une IA inclusive, qui écoute et représente la diversité des utilisateurs, pourra contribuer à un avenir technologique plus équitable, conclut-elle.