[ editar artigo]

10 diretrizes éticas para o uso da Inteligência Artificial

10 diretrizes éticas para o uso da Inteligência Artificial

"O uso da tecnologia orientado para o propósito orienta a inteligência artificial e todas as outras formas de automação inteligente", diz documento da Bayerischer Rundfunk que aborda 10 Diretrizes Éticas para o Uso de Inteligência Artificial.

As diretrizes da empresa podem servir como uma inspiração para o desenvolvimento de práticas éticas no uso da IA em diferentes setores. O original em inglês pode ser acessado aqui.

1. Benefício do usuário

Implementamos IA para nos ajudar a usar os recursos em que nossos usuários nos confiam com mais responsabilidade, tornando nosso trabalho mais eficiente. Também usamos IA para gerar novos conteúdos, desenvolver novos métodos de jornalismo investigativo e tornar nossos produtos mais atraentes para nossos usuários.

2. Transparência e Discurso

Participamos do debate sobre o impacto social dos algoritmos, fornecendo informações sobre tendências emergentes, investigando algoritmos, explicando como as tecnologias funcionam e fortalecendo um debate aberto sobre o futuro papel da mídia pública em uma sociedade de dados. Estudamos o discurso da ética da IA ​​em outras instituições, organizações e empresas, a fim de verificar e aprimorar nossas diretrizes para evitar um fosso entre a teoria e a prática. Deixamos claro para nossos usuários quais tecnologias usamos, quais dados processamos e quais equipes editoriais ou parceiros são responsáveis ​​por eles. Quando encontramos desafios éticos em nossa pesquisa e desenvolvimento, nós os transformamos em um tópico a fim de aumentar a consciência para tais problemas e tornar nosso próprio processo de aprendizagem transparente.

3. Diversidade e foco regional

Embarcamos em novos projetos conscientes da diversidade social da Baviera e da Alemanha. Por exemplo, buscamos modelos de dialeto em aplicações de fala em texto e dados de treinamento livres de preconceitos (responsabilidade algorítmica). Trabalhamos com startups e universidades da Baviera para fazer uso da competência de IA na região e apoiar a comunidade por meio de casos de uso na indústria de mídia e na academia. Nós nos esforçamos para obter o máximo de confiabilidade em nossas operações e podemos optar por trabalhar com empresas de tecnologia escolhidas caso a caso. Sempre que possível, trabalhamos dentro de nossas redes da ARD e da European Broadcasting Union (EBU), e trazemos conscientemente os aspectos éticos de qualquer proposta de aplicação para a colaboração.

4. Cultura consciente de dados

Exigimos informações sólidas sobre suas fontes de dados de nossos fornecedores: Quais dados foram usados ​​para treinar o modelo? Da mesma forma, buscamos integridade e qualidade dos dados de treinamento em todo o desenvolvimento interno, especialmente para evitar o viés algorítmico nos dados e tornar visível a diversidade da sociedade. Aumentamos continuamente a conscientização entre nossos funcionários para o valor dos dados e a importância de metadados bem mantidos. Apenas dados confiáveis ​​podem produzir aplicativos de IA confiáveis. Uma cultura consciente de dados é vital para nosso trabalho diário e uma importante tarefa de liderança para a mídia de serviço público preparada para o futuro.

Coletamos o mínimo de dados possível (prevenção de dados) e o máximo de dados necessários (economia de dados) para cumprir nosso mandato democrático. Continuamos a manter elevados padrões de segurança de dados e a aumentar a consciência para o armazenamento, processamento e eliminação responsáveis ​​de dados, especialmente quando se trata de dados pessoais. Projetamos a experiência do usuário em nossos serviços de mídia tendo em mente a soberania dos dados para o usuário.

5. Personalização responsável

A personalização pode fortalecer o valor de informação e entretenimento de nossos serviços de mídia, desde que não prejudique a diversidade social e evite efeitos de bolha de filtro indesejados. Portanto, usamos análises orientadas por dados como ferramentas de assistência para a tomada de decisão editorial. E, a fim de desenvolver mecanismos de recomendação voltados para o serviço público, colaboramos ativamente com outros serviços de mídia europeus por meio da EBU.

6. Controle Editorial

Enquanto a prevalência de dados e automação introduzem novas formas de jornalismo, a responsabilidade editorial permanece com as unidades editoriais. O princípio de verificação editorial continua obrigatório, mesmo com conteúdo automatizado. Mas sua implementação muda: a verificação de cada parte individual do conteúdo é substituída por uma verificação de plausibilidade das estruturas causais nos dados e um exame de integridade rigoroso da fonte de dados.

7. Aprendizagem Ágil

Para melhorar continuamente os produtos e diretrizes, precisamos de experiência e aprendizado com projetos-piloto e protótipos. Os experimentos são uma parte explícita desse processo. Até e incluindo a fase beta, essas diretrizes oferecem orientação geral. Na fase final do candidato a lançamento, eles são totalmente vinculativos. Dessa forma, garantimos que nossa oferta de produto final atenda aos mais altos padrões, ao mesmo tempo em que incentivamos uma cultura de aprendizado e experimentação em nosso trabalho diário. Também nos comprometemos a ouvir nossos usuários, estimular seus comentários e ajustar nossos serviços se necessário.

8. Parcerias

Oferecemos um contexto de pesquisa prática para alunos e professores em universidades e colaboramos com a academia e a indústria para realizar experimentos, por exemplo, com modelos de aprendizado de máquina e geração de texto. Trocamos ideias com instituições de pesquisa e especialistas em ética.

9. Aquisição de talentos e habilidades

Dado o espectro de tecnologia dinâmica no campo da IA, garantimos proativamente que a BR tenha funcionários suficientes com as habilidades para implementar tecnologias de IA na vanguarda do setor de forma responsável e centrada no ser humano. Nosso objetivo é recrutar talentos de diversas origens com habilidades práticas de IA, que os incentivamos a empregar no jornalismo de serviço público.

10. Reflexão Interdisciplinar

Em vez de realizar análises éticas depois que recursos significativos são investidos, integramos a reflexão interdisciplinar com jornalistas, desenvolvedores e gerenciamento desde o início do pipeline de desenvolvimento. Dessa forma, garantimos que nenhum recurso seja desperdiçado em projetos que, previsivelmente, não atendam a essas diretrizes. Refletimos sobre bandeiras vermelhas éticas em nosso uso de tecnologias de IA regularmente e de forma interdisciplinar. Avaliamos essas experiências à luz do mandato da mídia pública alemã e dessas diretrizes de ética.

Traduzido originalmente publicada na Gazeta do Povo, em 07/12/2020. Você nunca deve acreditar que “a culpa é do algoritmo".

Governança & Nova Economia
Ler conteúdo completo
Indicados para você