Telefone:
11 97853 5494E-mail:
[email protected] Idioma:
PT-BR
Idioma:
ESP
Idioma:
ENG
1 de junho de 2023
A pressa em adotar novos e poderosos modelos de IA generativa, como o ChatGPT, tem gerado muita preocupação sobre possíveis danos e usos indevidos. Sem uma legislação para lidar com essas questões, há uma pressão cada vez maior sobre as empresas responsáveis pelo desenvolvimento dessas tecnologias para que as implementem de forma ética. Mas o que isso realmente significa?
Uma resposta direta seria alinhar as operações comerciais com um ou mais dos muitos conjuntos de princípios éticos de IA elaborados por governos, grupos multissetoriais e acadêmicos. Contudo, esta é uma tarefa mais desafiadora do que parece.
Passamos dois anos entrevistando e realizando pesquisas com profissionais de ética em inteligência artificial de diversos setores para compreender como pretendem alcançá-la e o que pode estar sendo negligenciado.
Descobrimos que, na prática, isso tem menos a ver com transformar princípios éticos em ações corporativas e mais com implementar estruturas de gestão e processos que permitam às organizações identificar e mitigar ameaças.
Essa pode ser uma notícia desanimadora para as empresas que buscam diretrizes objetivas e evitam zonas cinzentas, assim como para os consumidores que esperam padrões claros e protetivos. Mas nos leva a uma melhor compreensão de como as organizações podem garantir a ética da IA.
Dados enviesados
Nosso estudo se concentrou nos responsáveis por lidar com questões éticas da IA em grandes empresas de tecnologia. Entre o final de 2017 e o início de 2019, entrevistamos 23 desses gestores e, a partir dessas conversas, chegamos a quatro conclusões principais.
Em primeiro lugar, o uso corporativo da IA apresenta riscos significativos, e as empresas estão cientes disso. Os gestores de ética em IA expressaram preocupações sobre privacidade, manipulação, viés, desigualdade e substituição de empregos.
Um exemplo conhecido é o caso da Amazon, que desenvolveu uma ferramenta de IA para classificar currículos e a treinou para encontrar candidatos semelhantes aos que já havia contratado antes. Devido à predominância masculina na indústria de tecnologia, a maioria de seus funcionários era composta por homens. Como resultado, a ferramenta aprendeu a rejeitar candidatas do sexo feminino. Incapaz de resolver o problema, a Amazon teve que abandonar o projeto.
Além disso, a IA generativa também traz preocupações relacionadas à desinformação, discurso de ódio e violação de propriedade intelectual.
Reputação em jogo
Em segundo lugar, as empresas que buscam garantir a ética da IA o fazem principalmente por razões estratégicas. Elas desejam manter a confiança de seus clientes, parceiros de negócios e funcionários, além de se antecipar ou se preparar para futuras regulamentações.
O escândalo envolvendo o Facebook e a Cambridge Analytica mostrou como o uso antiético de análises avançadas pode destruir a reputação de uma empresa e, em alguns casos, até levá-la à falência. As organizações com as quais conversamos desejam ser vistas como administradoras responsáveis dos dados dos usuários.
O desafio enfrentado pelos gestores consiste em descobrir a melhor maneira de alcançar a “IA ética”. Inicialmente, eles se concentraram nos princípios éticos da inteligência artificial, especialmente aqueles fundamentados na bioética ou nos direitos humanos, mas os consideraram insuficientes.
Não era apenas uma questão de existirem vários conjuntos de princípios concorrentes. Também se tratava do fato de que conceitos como justiça, equidade, autonomia e outros princípios semelhantes são disputados, passíveis de interpretação e podem entrar em conflito uns com os outros.
Isso nos levou à terceira conclusão: é necessário mais do que apenas princípios éticos para decidir o que fazer em situações específicas. Um dos gestores entrevistados mencionou a tentativa de traduzir os princípios de direitos humanos em um conjunto de perguntas que os desenvolvedores poderiam utilizar para criar sistemas de IA mais éticos. “Paramos depois de 34 páginas”, afirmou.
Lidando com incertezas éticas
Em quarto lugar, profissionais que lidam com incertezas éticas recorrem a estruturas e procedimentos organizacionais para descobrir o que fazer. Alguns desses métodos são claramente insuficientes. Mas outros, embora ainda em desenvolvimento, se mostram bastante úteis, como:
A ideia-chave que surgiu em nosso estudo é a seguinte: as empresas que desejam utilizar a IA de forma ética não devem buscar um conjunto simples de princípios que ofereça respostas com base em um conhecimento absoluto.
Em vez disso, devem focar em tomar decisões responsáveis em um mundo com compreensão limitada e circunstâncias em constante mudança, mesmo que algumas decisões acabem sendo imperfeitas.
Na ausência de requisitos legais explícitos, as empresas, assim como os indivíduos, devem buscar compreender como a IA afeta as pessoas e o meio ambiente, e se manter atualizadas sobre a opinião pública, sobre as pesquisas mais recentes e sobre o que o dizem os especialistas.
Confira matéria na Fast Company
Compartilhar
Telefone:
11 97853 5494E-mail:
[email protected]WhatsApp us