Facebook dit qu’il étendra un cours en ligne d’apprentissage profond à plus d’étudiants pour aider à améliorer la diversité de sa division IA. Après un programme pilote réussi à Georgia Tech, la société déploiera ce cours de deuxième cycle en apprentissage profond dans davantage de collèges en 2021. L’accent sera mis sur l’offre du système aux universités qui desservent un grand nombre d’étudiants noirs et Latinx. On espère qu’en améliorant la diversité des personnes qui construisent ces systèmes, certains des préjugés les plus odieux seront éliminés. 

Cela fait partie d’un programme plus large visant à encourager les gens à entrer dans le domaine de l’informatique même si leur formation de premier cycle est dans un autre domaine. En 2019, la société a investi 4,2 millions de dollars dans le programme Align de la Northeastern University, qui aide à encourager les groupes sous-représentés à suivre des programmes d’études supérieures. Il est également utile que la pandémie mondiale entraîne une plus grande adhésion à l’apprentissage en ligne, qui lui-même peut atteindre des personnes qui autrement ne seraient pas en mesure de participer.

En plus de co-développer le cours Georgia Tech, l’équipe de Facebook AI a donné des conférences, encadré des étudiants et leur a permis de passer un entretien pour un poste dans l’entreprise. Les étudiants pourront participer à divers projets avec une application dans le monde réel, y compris des travaux visant à améliorer l’imagerie médicale. Ils pourront également, bien sûr, examiner le travail de Facebook – y compris l’identification algorithmique des mèmes haineux – sur sa propre plateforme.

Des initiatives comme celle-ci reflètent le nombre de cas notables où les systèmes d’IA / d’apprentissage en profondeur se sont avérés avoir de graves préjugés. Cela comprend les systèmes de reconnaissance faciale et vocale qui discriminent pour les opportunités d’emploi ou le profilage criminel. En 2019, un rapport indiquait que la profession était sur un «point de basculement» vers une catastrophe, où les algorithmes encodent des biais historiques contre certains groupes. 

Lire aussi  Qualcomm promet une meilleure IA pour sa prochaine puce PC Snapdragon