__________________________________________________________________________
IA para Educadores – Plano de Assinatura iTech Educators, um projeto da Nós Educação
Você pode saber mais a respeito, clicando na imagem ou aqui.
__________________________________________________________________________
__________________________________________________________________________
Qualquer um que use IA em suas vidas deve estar ciente dos perigos. Um desses perigos: a IA pode retratar um mundo que não existe – ou encorajar um mundo que coloca pessoas marginalizadas em desvantagem.
Em um artigo da Vox, Rebecca Heilweil escreve:
Os humanos são propensos a erros e tendenciosos, mas isso não significa que os algoritmos sejam necessariamente melhores. Ainda assim, a tecnologia já está tomando decisões importantes sobre sua vida e potencialmente governando sobre quais anúncios políticos você vê, como sua inscrição para o emprego dos seus sonhos é examinada, como os policiais são mobilizados em sua vizinhança e até mesmo prevendo o risco de incêndio em sua casa.
Mas esses sistemas podem ser tendenciosos com base em quem os constrói, como são desenvolvidos e como são usados. Isso é comumente conhecido como viés algorítmico. É difícil descobrir exatamente como os sistemas podem ser suscetíveis ao viés algorítmico, especialmente porque essa tecnologia geralmente opera em uma caixa preta corporativa. Frequentemente não sabemos como uma inteligência artificial ou algoritmo específico foi projetado, quais dados ajudaram a construí-lo ou como ele funciona.
Vale a leitura: Por que os algoritmos podem ser racistas e sexistas.