Le rachat de Twitter par Elon Musk accentue le mouvement en faveur d'une réglementation renforcée, notamment en ce qui concerne la transparence des algorithmes. Nourris à l'IA, ceux-ci développent des biais qui sont devenus une préoccupation majeure, tant ils influent sur ce que les gens voient et impactent l'intérêt général.
Malgré des réformes législatives, seule la conformité à l'IA « éthique », qui minimise ces biais historiques d'échantillonnage et de substitution, peut renforcer la confiance en l'IA. Pour y arriver, Andrew Pery plaide pour une adoption du Process Mining qui permet de développer une approche axée sur les données et ainsi favoriser l'émergence d'une IA digne de confiance.
Quelles questions ont été soulevées par le projet rachat de Twitter par Elon Musk ?
Lorsqu’il a envisagé de racheter Twitter, le discours d'Elon Musk semblait principalement axé sur le principe de transparence et la neutralité politique. Il défendait notamment le projet de « rendre Open Source les algorithmes de Twitter afin d’accroître la confiance ». Cependant, le contexte dans lequel ces principes auraient pu ou pourraient être appliqués n’est pas clair.
Si le projet de rachat est actuellement en suspens, cela n’enlève pas les interrogations quant aux conflits d’intérêts pouvant influer sur l'orientation d’une plateforme dont le propriétaire serait également un industriel ! Le réseau social demeurera-t-il une agora numérique au service de la pluralité des idées ou deviendra-t-il une plateforme au service des autres intérêts commerciaux de son détenteur ?
En quoi cette annonce a-t-elle un impact sur la manière d’appréhender les algorithmes ?
Cette opération a mis en lumière le mouvement en faveur d’une surveillance réglementaire accrue des plateformes. Le 12 avril dernier, le Congrès Américain a réintroduit l'Algorithmic Accountability Act of 2022 dont l'une des ambitions est de soumettre les réseaux sociaux à des obligations de transparence plus rigoureuses.
Twitter a investi des ressources importantes dans le repérage des préjugés algorithmiques en vue de les éliminer. L’entreprise a notamment lancé l’algorithmic bias bounty challenge qui a fait appel à la communauté des hackers éthiques pour identifier les préjudices potentiels sur certaines catégories de la population.
Lorsqu’une plateforme comme Twitter, si influente au quotidien, devient la propriété d’un seul homme, il faut voir jusqu'à quel point celui-ci accepte une réglementation renforcée. Par exemple, les amendements proposés à l'article 230 de la loi Communications Decency Act supprimerait l'immunité de responsabilité actuelle des plateformes en matière de contenu publié par des tiers.
Pouvez-vous nous parler des biais algorithmiques ?
Alors que les réseaux sociaux sont ancrés dans nos vies, les biais algorithmiques deviennent une préoccupation majeure. Non seulement ils influencent ce que les gens voient sur les réseaux sociaux, mais ils nuisent à l'équité des arbitrages éditoriaux réalisés en matière de présentation de contenus, ce qui ne sert pas l’intérêt général. On se souvient à titre d’exemple de l’algorithme de cadrage des photos qui a dû être retiré de Twitter en raison d’un biais racial.
Insuffler davantage de confiance dans les algorithmes est nécessaire non seulement pour garantir la liberté d'expression, mais aussi pour s'assurer que les biais algorithmiques n'ont pas d'incidence négative sur le quotidien des utilisateurs et des communautés.
Que doit-on faire pour éliminer ces biais et favoriser la neutralité numérique ?
Pour que les algorithmes soient équitables, la mise en place d’une IA éthique, c'est-à-dire, qui minimise les biais algorithmiques (historiques, d'échantillonnage et de discrimination indirect involontaire), est essentielle pour obtenir la confiance.
Une manière d'y parvenir est la découverte de processus (Process Discovery). Axée sur les données, cette méthode facilite la mise en place d'un audit des processus dont le rôle est d'assurer la conformité de l'IA aux exigences réglementaires, de même que la visualisation des interactions entre les diverses parties prenantes et des systèmes d'enregistrement de données disparates.
Dans cette optique, le Process Mining peut être un outil efficace pour proposer une IA plus digne de confiance.
Malgré des réformes législatives, seule la conformité à l'IA « éthique », qui minimise ces biais historiques d'échantillonnage et de substitution, peut renforcer la confiance en l'IA. Pour y arriver, Andrew Pery plaide pour une adoption du Process Mining qui permet de développer une approche axée sur les données et ainsi favoriser l'émergence d'une IA digne de confiance.
Quelles questions ont été soulevées par le projet rachat de Twitter par Elon Musk ?
Lorsqu’il a envisagé de racheter Twitter, le discours d'Elon Musk semblait principalement axé sur le principe de transparence et la neutralité politique. Il défendait notamment le projet de « rendre Open Source les algorithmes de Twitter afin d’accroître la confiance ». Cependant, le contexte dans lequel ces principes auraient pu ou pourraient être appliqués n’est pas clair.
Si le projet de rachat est actuellement en suspens, cela n’enlève pas les interrogations quant aux conflits d’intérêts pouvant influer sur l'orientation d’une plateforme dont le propriétaire serait également un industriel ! Le réseau social demeurera-t-il une agora numérique au service de la pluralité des idées ou deviendra-t-il une plateforme au service des autres intérêts commerciaux de son détenteur ?
En quoi cette annonce a-t-elle un impact sur la manière d’appréhender les algorithmes ?
Cette opération a mis en lumière le mouvement en faveur d’une surveillance réglementaire accrue des plateformes. Le 12 avril dernier, le Congrès Américain a réintroduit l'Algorithmic Accountability Act of 2022 dont l'une des ambitions est de soumettre les réseaux sociaux à des obligations de transparence plus rigoureuses.
Twitter a investi des ressources importantes dans le repérage des préjugés algorithmiques en vue de les éliminer. L’entreprise a notamment lancé l’algorithmic bias bounty challenge qui a fait appel à la communauté des hackers éthiques pour identifier les préjudices potentiels sur certaines catégories de la population.
Lorsqu’une plateforme comme Twitter, si influente au quotidien, devient la propriété d’un seul homme, il faut voir jusqu'à quel point celui-ci accepte une réglementation renforcée. Par exemple, les amendements proposés à l'article 230 de la loi Communications Decency Act supprimerait l'immunité de responsabilité actuelle des plateformes en matière de contenu publié par des tiers.
Pouvez-vous nous parler des biais algorithmiques ?
Alors que les réseaux sociaux sont ancrés dans nos vies, les biais algorithmiques deviennent une préoccupation majeure. Non seulement ils influencent ce que les gens voient sur les réseaux sociaux, mais ils nuisent à l'équité des arbitrages éditoriaux réalisés en matière de présentation de contenus, ce qui ne sert pas l’intérêt général. On se souvient à titre d’exemple de l’algorithme de cadrage des photos qui a dû être retiré de Twitter en raison d’un biais racial.
Insuffler davantage de confiance dans les algorithmes est nécessaire non seulement pour garantir la liberté d'expression, mais aussi pour s'assurer que les biais algorithmiques n'ont pas d'incidence négative sur le quotidien des utilisateurs et des communautés.
Que doit-on faire pour éliminer ces biais et favoriser la neutralité numérique ?
Pour que les algorithmes soient équitables, la mise en place d’une IA éthique, c'est-à-dire, qui minimise les biais algorithmiques (historiques, d'échantillonnage et de discrimination indirect involontaire), est essentielle pour obtenir la confiance.
Une manière d'y parvenir est la découverte de processus (Process Discovery). Axée sur les données, cette méthode facilite la mise en place d'un audit des processus dont le rôle est d'assurer la conformité de l'IA aux exigences réglementaires, de même que la visualisation des interactions entre les diverses parties prenantes et des systèmes d'enregistrement de données disparates.
Dans cette optique, le Process Mining peut être un outil efficace pour proposer une IA plus digne de confiance.
Autres articles
-
Frogs VS. Dogs - Dogizen offre des rendements 10 fois supérieurs à ceux de Pepe Coin ?
-
Spendesk complète son offre en devenant établissement de paiement
-
Nomination | Swan structure sa direction avec l'arrivée de Camille Tyan au poste de Directeur Général
-
Dogizen, la première ICO sur Telegram, séduit les experts avec une augmentation de 1,4 million de dollars.
-
Klarna affiche sa pleine forme, avant son IPO en 2025 ?