Actualité des Experts de l'IA
-
Nando de Freitas
Description: Nando de Freitas est chercheur dans le domaine de l’apprentissage automatique, et en particulier dans les sous-domaines des réseaux de neurones, de l’inférence bayésienne et de l’optimisation bayésienne, et de l’apprentissage profond. Maintenant chercheur chez Deepmind, il n'hésite pas à partager les dernières avancées du domaine sur les réseau sociaux. Il considère que s'est en partageant les simulateurs, le code et les data que la robotique va progresser. -
Nige Willson
Description: Conférencier mondial, influenceur et conseiller sur l'intelligence artificielle, l'innovation et la technologie (classé parmi les meilleurs influenceurs de l'IA au monde) - ancien directeur technologique européen chez Microsoft, mais maintenant une voix indépendante sur l'intelligence artificielle et l'utilisation et la mise en œuvre responsables de la technologie. Il est d'accord avec l' expert Judeal Peralsur le fait que la causalité est une clé pour aller de l'avant. -
Ria Pratyusha Kalluri
Description: Ria était chercheuse au MIT, quand elle s'est profondément intéressée à l'intelligence artificielle. Au début, elle a construit des systèmes d'IA pour révéler les événements à l'intérieur du corps humain. Au Dana-Farber Cancer Institute, elle a développé un algorithme pour identifier les changements de voies génétiques qui sous-tendent le cancer du sein, et au MIT Media Lab, elle a développé un appareil pour automatiser l'auscultation du stéthoscope. Avec le temps, ses recherches ont convergé vers cet organe le plus complexe et le moins compris: le cerveau humain. Elle a construit des systèmes d'IA modélisant les facettes de l'intelligence humaine et du traitement du langage humain. Elle est curieuse de savoir ce que nous allons faire à propos de la vision par ordinateur et participe à des conférences sur le sujet. -
Ifeoma Ozoma
Description: Ifeoma Ozoma est un expert américain en politique et un défenseur de l'équité. Son travail consiste à lutter contre la désinformation sur la santé et la responsabilité technologique. Elle est la fondatrice du cabinet de conseil Earthseed. Elle a reçu le prix Bold 2020. Elle pense qu'iIl n'y a pas de responsabilité technologique sans dénonciateurs technologiques. Il n'y a pas de responsabilité technologique sans les travailleurs technologiques. -
Will Knight
Description: Will Knight est un journaliste pour WIRED, couvrant l'intelligence artificielle. Il était auparavant rédacteur en chef au MIT Technology Review, où il a écrit sur les avancées fondamentales de l'IA et le boom de l'IA en Chine. Avant cela, il était rédacteur en chef et écrivain chez New Scientist. Il pense qu'il est fascinant que Baidu soit peut-être prêt à surenchérir sur Google pour le talent derrière une percée majeure dans l'IA en 2012. -
Dr Kate Crawford
Description: Kate est chercheuse à Microsoft Research (Social Media Collective) et cofondatrice et directrice de recherche à l'AI Now Institute de NYU, Ses recherches portent sur le changement social et les technologies des médias, en particulier sur l'intersection des humains, des appareils mobiles et des réseaux sociaux. Elle a publié des articles sur les cultures d'utilisation de la technologie et la manière dont les histoires des médias informent le présent. Elle a écrit un livre intitulé ATLAS OF AI: Power, Politics, and the Planetary Costs of Artificial qui traite des impacts de l'IA dans notre société. Elle pense qu'il y a un besoin urgent de réglementer la technologie de reconnaissance des émotions. -
Justin Hendrix
Description: Justin Hendrix est cofondateur et PDG de Tech Policy Press, une nouvelle entreprise médiatique à but non lucratif qui s'intéresse à l'intersection de la technologie et de la démocratie. Auparavant, il était directeur exécutif du NYC Media Lab. Il a passé plus d'une décennie chez The Economist dans des rôles tels que celui de vice-président, développement des affaires et innovation. Il est chercheur associé et professeur adjoint à la NYU Tandon School of Engineering. Il a informé la communauté AI que Facebook avait gratté 1 milliard de photos d'Instagram pour former son A.I. De plus, il a relayé les informations selon lesquelles les e-mails entre le NYPD et la startup controversée de reconnaissance faciale Clearview AI sont désormais dans le domaine public. -
Jenn Wortman Vaughan
Description: Elle est chercheuse à Microsoft Research, New York City, un laboratoire de recherche fondamentale collaboratif et interdisciplinaire. Elle passe maintenant son temps sur l'IA responsable - en particulier la transparence, l'interprétabilité et l'équité des systèmes d'IA - dans le cadre du groupe FATE de Microsoft et coprésidente du groupe de travail Aether de Microsoft sur la transparence.qui ont étudié ces interactions dans le contexte des marchés de prédiction et d'autres systèmes de crowdsourcing. Sa passion est pour l'IA qui augmente, plutôt que de remplacer, les capacités humaines. Une grande partie de son travail a été théorique - elle aime un beau modèle propre qui capture l'essence d'un problème et des garanties prouvables. Elle a commencé à incorporer plus d'expériences et même des méthodes qualitatives dans ses recherches afin de mieux comprendre le comportement humain dans les systèmes sociotechniques . Elle parle occasionnellement de problèmes de société liés à l'IA. Elle pense qu évaluer les systèmes d'IA pour les disparités de performance entre les groupes est plus difficile qu'il n'y paraît. -
Dr Mona Sloane
Description: Mona Sloane est une sociologue qui travaille sur les inégalités dans le contexte de la conception et de la politique de l'IA. Elle publie et parle fréquemment d'IA, d'éthique, d'équité et de politique dans un contexte mondial. elle est également Senior Research Scientist au NYU Center for Responsible AI, professeur auxiliaire à la Tandon School of Engineering de NYU.Elle pense que le moment est venu pour un dialogue transatlantique sur le risque de l'IA. Elle pense qu'aujourd'hui il n'y a pas de définition claire de «l'audit algorithmique». Elle met également en garde contre le risque de consacrer la technologie eugéniste dans une réglementation faible. -
Kathy Baxter
Description: Kathy, architecte principale de la pratique éthique de l'IA chez Salesforce, élabore des bonnes pratiques fondées sur la recherche pour sensibiliser les employés, les clients et l'industrie de Salesforce au développement d'une IA responsable. Elle collabore et s'associe avec des experts externes en IA et en éthique pour faire évoluer en permanence les politiques, pratiques et produits Salesforce. Elle aime avoir des conversations sur la responsabilité. Avant Salesforce, elle a travaillé chez Google, eBay et Oracle dans le domaine de la recherche sur l'expérience utilisateur. Son livre, «Comprendre vos utilisateurs», a été publiée en mai 2015. Kathy tien à jour ses rechercher sur le site einstein.ai/ethics. Elle pense que différents systèmes de valeurs nécessitent différents mécanismes pour une prise de décision équitable. Elle nous dit qu' essayer de remplacer la santé publique par un modèle d'apprentissage automatique n'a aucun sens. -
Amba Kak
Description: Amba Kak est directrice de la stratégie et des programmes mondiaux à l’Institut AI Now de NYU, où elle développe et dirige l’engagement politique, les programmes et les partenariats mondiaux de l’organisation. Auparavant, elle a dirigé la politique publique de Mozilla en Inde, travaillant de manière approfondie sur la loi mondiale sur la protection des données et les systèmes d'identité biométrique. Elle n'est pas très active sur les réseaux sociaux mais elle envoie souvent des liens utiles pour la communauté IA. -
Nico Grant
Description: Nico couvre Google pour Bloomberg News. Il a précédemment écrit au sujet de différentes entreprises de technologie, notamment Oracle, Salesforce et Adobe. Il a également participé à la diffusion de l’information concernant l’équipe d’intelligence artificielle éthique de Google qui a publiquement implosé après l’éviction de ses principaux scientifiques Timnit Gebru et Margarette Mitchell. -
Madeleine Clare Elish
Description: Madeleine a précédemment dirigé l'initiative AI on the Ground chez Data & Society, où elle et son équipe ont enquêté sur les promesses et les risques liés à l'intégration des technologies de l'IA dans la société. Grâce à une recherche ethnographique et centrée sur l'humain, l'IA sur le terrain met en lumière les conséquences du déploiement de systèmes d'IA au-delà du laboratoire de recherche, en examinant qui en profite, qui est blessé et qui est responsable. Les travaux de l’initiative se sont concentrés sur la manière dont les organisations font face aux défis et aux opportunités de l’IA, de l’évolution des pratiques de travail et des responsabilités aux nouvelles pratiques éthiques et formes de gouvernance de l’IA. En tant que chercheuse et anthropologue, Madeleine a travaillé à recadrer les débats sur la conception, l'utilisation et la gouvernance éthiques des systèmes d'IA. Madeleine etudie les opportunités et les limites des méthodes d' Équité ajouté à la modélisation causale . -
Frank Pasquale
Description: Frank Pasquale est un expert et professeur de la loi d'intelligence artificielle, des algorithmes et de l'apprentissage automatique. Il est un chercheur prolifique et reconnu internationalement dont les travaux ont abordé la réglementation de la technologie dans plusieurs contextes. Ses recherches largement citées ont été présentées dans les principales revues de droit et il a conseillé des responsables gouvernementaux sur des questions de pointe en matière de réglementation juridique et technologique. Le livre de Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information a été reconnu internationalement comme une étude historique sur les asymétries de l'information. Son dernier livre "New Law of Robtoics" vide à défendre l'humain dans une société dirigée par l'IA. -
Emily Denton
Description: Emily est un chercheur principal au sein de l'équipe IA éthique de Google, où elle étudie les impacts sociétaux de l'apprentissage automatique et de la technologie IA. Mes recherches récentes se concentrent sur l'examen critique des normes, des valeurs et des pratiques de travail qui structurent le développement et l'utilisation des ensembles de données d'apprentissage automatique. Elle fut tres touché par le licenciement douteux de ses manager Timnit Gebru et Margareth Mitchell. -
Scott Thurm
Description: Scott Thurm est le rédacteur en chef de WIRED. Il supervise la couverture des entreprises technologiques et leur impact sur la société. Avant de rejoindre WIRED, Thurm était reporter et rédacteur en chef du Wall Street Journal. Il a remporté deux fois le prix Gerald Loeb pour ses reportages commerciaux distingués et faisait partie d'une équipe qui a remporté un prix Pulitzer. Il pense qu' ImageNet est une base de données fondamentale de l'apprentissage en profondeur, à la base de centaines de projets de recherche. -
Kyle M L Jones
Description: Kyle est professeur au sein de la School of Informatics and Computing de l'Indiana University-Indianapolis (IUPUI). La recherche de Kyle se concentre sur l'éthique de l'information et les questions de politique associées à l'exploration de données éducatives et aux pratiques analytiques, telles que l'analyse de l'apprentissage, dans les établissements d'enseignement supérieur américains. Ses recherches publiées sont accessibles dans les meilleures revues, comme le Journal of the Association for Information Science and Technology; Apprentissage, médias et technologie; Communications de l'ACM; le Journal of Documentation; Bibliothèques universitaires et de recherche; et autres revues. Ses recherches ont été présentées dans des médias nationaux et internationaux. -
Alessandro Bongioanni
Description: Allessandro s'intéresse à la manière dont le cerveau prend des décisions complexes, par exemple des décisions sur de nouveaux éléments dont la valeur n'a pas été apprise par une pratique intensive. Il s'intéresse également à la manière dont le cerveau encode et traite des représentations cognitives complexes et les utilise pour faire des inférences. De plus, il porte une attention particulière à la manière dont cette réflexion et cette prise de décision sont influencées par des facteurs de motivation. Il est intrigué par les similitudes cognitives entre les humains et les autres primates, ainsi que par les différences entre les décideurs biologiques et artificiels. Ses recherches ont combiné des outils non invasifs chez des primates non humains, tels que l'IRM fonctionnelle et la stimulation par ultrasons transcrâniens, avec la modélisation informatique. -
Ayanna Howard
Description: Les domaines de recherche d'Howard s'articulent autour des interactions homme-machine, la robotique d'assistance/rééducation, la robotique à la fois scientifique et de terrain, ainsi que la perception, l'apprentissage et le raisonnement. De l'apprentissage intelligent à la réalité virtuelle dans un but rééducatif, en passant par la robotique pour des thérapies pédiatriques, les travaux de recherche et les ouvrages publiés de Howard couvrent une multitude sujets autour de la robotique et de l'intelligence artificielle. Son travail de recherche se concentre sur son intérêt pour le développement technologique d'agents intelligents devant interagir avec et dans un monde centré sur l'être humain. Au sujet de la reconnaissance faciale, Howard se demande comment en sommes-nous arrivés là? Lorsque la plupart des chercheurs ont commencé dans ce domaine, c’était un problème de recherche intéressant. Elle constate que rien ne reste vraiment dans les laboratoires. -
Michael Veale
Description: Le Dr Michael Veale a terminé son doctorat financé par l'EPSRC en apprentissage automatique dans le secteur public responsable à l'University College London, spécialisé dans l'équité et la responsabilité des outils basés sur les données dans le secteur public, ainsi que sur l'interaction entre les technologies centrées sur les données et le droit de la protection des données. Ses recherches et publications portent largement sur la technologie et le droit de la vie privée, l'interaction homme-ordinateur, l'informatique et la politique scientifique. Ses recherches dans ces domaines ont été utilisées par des agences internationales, des régulateurs et des gouvernements, reprises dans les médias et débattues au Parlement.