Sophia Velastegui, aujourd’hui membre du comitรฉ consultatif national sur l’IA de la Fondation nationale des sciences (NSF), nโa pas toujours envisagรฉ une carriรจre dans l’intelligence artificielle.
Diplรดmรฉe en gรฉnie mรฉcanique de Georgia Tech, elle dรฉbute chez Apple en 2009, oรน elle travaille sur des projets rรฉvolutionnaires, comme les premiers modรจles de MacBook Air et dโiPad. Trรจs vite, elle se passionne pour les applications alimentรฉes par lโIA, captivรฉe par leur potentiel ร crรฉer des expรฉriences personnalisรฉes pour les utilisateurs. Aprรจs un passage chez Google, puis chez Microsoft, elle devient lโune des figures majeures de lโinnovation IA, contribuant ร infuser des produits comme Bing, LinkedIn et PowerPoint avec des capacitรฉs d’intelligence artificielle.
Lire aussi :
- Comment les experts estiment-ils que lโIA gรฉnรฉrative peut รชtre rรฉgulรฉe sans nuire ร ses avantages potentiels ?
- Quels sont les principaux dรฉfis รฉthiques et lรฉgaux abordรฉs lors de TechCrunch Disrupt 2024 pour encadrer le dรฉveloppement de lโIA ?
La nรฉcessitรฉ d’une diversitรฉ accrue dans le secteur
Pour Velastegui, le manque de diversitรฉ au sein des รฉquipes d’IA reprรฉsente un dรฉfi urgent et critique. Les รฉquipes composรฉes majoritairement dโhommes sont plus susceptibles de gรฉnรฉrer des biais dans les systรจmes dโIA, crรฉant des technologies qui ne reflรจtent quโune partie limitรฉe de la sociรฉtรฉ. Velastegui souligne lโimportance dโavoir des femmes aux premiรจres lignes de ce secteur pour enrichir les perspectives et รฉviter le ยซย groupthinkย ยป. Elle encourage les femmes ร sโinvestir dans lโIA et ร prendre la parole dans leurs entreprises, pour que leurs voix et leurs expรฉriences participent ร la crรฉation d’une IA vรฉritablement reprรฉsentative de tous les utilisateurs.
Ralentir pour une IA รฉthique et sรฉcurisรฉe
LโIA avance aujourdโhui ร une vitesse sans prรฉcรฉdent, un rythme que Velastegui juge prรฉoccupant en lโabsence de cadre รฉthique partagรฉ. Elle craint que cette progression effrรฉnรฉe ne compromette la sรฉcuritรฉ et la qualitรฉ de la technologie, menaรงant de crรฉer des systรจmes mal adaptรฉs aux besoins rรฉels des utilisateurs. Pour elle, il est essentiel de mettre en place une approche centrรฉe sur lโhumain, en veillant ร apprendre des erreurs passรฉes. Elle prรฉconise la formation de conseils diversifiรฉs au sein des entreprises, dรฉdiรฉs ร รฉvaluer les risques et ร apporter des recommandations pour un dรฉveloppement responsable de lโIA. Une IA รฉthique ne peut se construire que si elle est guidรฉe par des retours rรฉguliers et adaptรฉs au contexte, affirme-t-elle.
Vers une intelligence artificielle inclusive
ร travers son rรดle au sein du comitรฉ de la NSF, Sophia Velastegui s’efforce aujourdโhui de relever les dรฉfis fondamentaux liรฉs ร lโIA, en particulier la reprรฉsentation numรฉrique et lโรฉlimination des biais. Elle soutient qu’une IA inclusive et รฉthique est possible, ร condition dโintรฉgrer une diversitรฉ de points de vue dans sa conception et de promouvoir une rรฉgulation rigoureuse pour encadrer son dรฉploiement. Selon elle, cโest en engageant des dรฉveloppeurs issus de milieux variรฉs, en particulier des femmes, que lโIA pourra vรฉritablement rรฉpondre aux besoins de tous. Seule une IA inclusive, qui รฉcoute et reprรฉsente la diversitรฉ des utilisateurs, pourra contribuer ร un avenir technologique plus รฉquitable, conclut-elle.