Poligoritmo

História interessante, na Fast Company, sobre um experimento da IBM usando Pac-Man para tentar ensinar ética para uma inteligência artificial. Um comentário apenas indiretamente relacionado à história, porém, me deixou mais curioso:

Already, there are plenty of real-world examples of why these subjects are worth worrying about. Earlier this month, for instance, Reuters’ Jeffrey Dastin reported on an AI-infused recruiting system developed by Amazon. The company scrapped the tool after it saw that it was penalizing female candidates—for instance, actively downgrading job hunters with the word “women’s” in their résumés—in part because it had been trained using data from past Amazon hires that—typically for engineering positions—skewed heavily male.

A preocupação de como algoritmos e inteligências artificiais podem ajudar a perpetuar viéses e preconceitos humanos não é nova. Mas ao ler essa passagem, considerando os tempos em que vivemos, me ocorreu: ninguém pensou em inverter a lógica e usar essas técnicas como maneira de identificar ou descobrir viéses e preconceitos velados ou, no mínimo, discutíveis para muitas pessoas? Em vez de “meu deus, minha inteligência artificial é racista”, passar para “vamos treinar esse algoritmo aqui pra ver se não somos racistas, mesmo”.

posted: 18 October 26
under: Uncategorized