Lambda3 Podcast
Lambda3 Podcast 282 – Responsabilidade e Ética em Ciência de Dados
Hoje vamos falar um pouco sobre ética e responsabilidade quando do uso de dados, principalmente quando da coleta e análise de grande quantidade de dados e, obviamente, dos problemas advindos do uso de tal Big Data.
Entre no nosso grupo do Telegram e compartilhe seus comentários com a gente: https://lb3.io/telegram
Feed do podcast: www.lambda3.com.br/feed/podcast
Feed do podcast somente com episódios técnicos: www.lambda3.com.br/feed/podcast-tecnico
Feed do podcast somente com episódios não técnicos: www.lambda3.com.br/feed/podcast-nao-tecnico
Pauta:
-
Quais problemas podem advir do uso indiscriminado de IA & ML?
-
O que é uso ético e responsável de dados? Por que essa discussão tem surgido com mais força nos últimos anos? Qual a importância?
-
Hoje em dia muito se tem discutido a respeito dos vieses em bases de dados e, principalmente, aplicações automatizadas. Como poderíamos definir melhor o que é um uso ético e responsável de dados?
-
Questão do viés em dados e algoritmos, existem bons exemplos onde essa questão foi tratada de maneira adequada?
-
A discussão sobre ética e responsabilidade em IA é um dilema social ou técnico?
-
De quem é a responsabilidade quando tratamos de problemas e preconceitos advindos de sistemas de IA? E ainda sobre isso, qual o papel do desenvolvedor em garantir sistemas éticos?
-
Quais os caminhos para começar essa discussão com o meu time e quem deve estar a frente da discussão?
-
Os governos devem estabelecer diretrizes e leis sobre isso ou a discussão sobre responsabilidade deve ficar a cargo das empresas?
-
O Brasil se encontra em comparação com outros países quando falamos do estado da arte e do desenvolvimento ético em IA?
-
Existem frameworks ou técnicas que auxiliam na construção de sistemas de IA garantindo mais transparência e ética?
Links Citados:
- Exemplo de interrupção de uso de reconhecimento facial – Por que a Cufa interrompeu o uso de reconhecimento facial após polêmica | Tecnologia | G1 (globo.com)
- Watch Coded Bias | Netflix
- Fairlearn
- Responsible AI Resources – Microsoft AI
- Responsible AI Toolkit | TensorFlow
- Responsible AI practices – Google AI
- FATE: Fairness, Accountability, Transparency, and Ethics in AI: Projects – Microsoft Research
- GitHub – interpretml/interpret: Fit interpretable models. Explain blackbox machine learning.
- Fairness, accountability, transparency, ethics – Amazon Science
- Justice: What’s The Right Thing To Do? Episode 01 “THE MORAL SIDE OF MURDER” – YouTube
- Using the What-If Tool | AI Platform Prediction | Google Cloud
- Google AI Blog: Setting Fairness Goals with the TensorFlow Constrained Optimization Library (googleblog.com)
- fairlearn.postprocessing package — Fairlearn 0.5.0 documentation
Participantes:
- Ahirton Lopes – @AhirtonLopes
- Bianca Ximenes – @biancaxis
- Vinicius Caridá – @vfcarida
Edição:
Créditos das músicas usadas neste programa:
- Music by Kevin MacLeod (incompetech.com) licensed under Creative Commons: By Attribution 3.0 – creativecommons.org/licenses/by/3.0