Home / As indústrias criativas devem assumir a liderança na autogovernança da IA
Notícias
Fique por dentro das principais notícias do setor publicitário no Brasil e no mundo.

As indústrias criativas devem assumir a liderança na autogovernança da IA

Fonte: The Drum

5 de julho de 2023

A agenda de notícias está cada vez mais focada nas implicações morais em torno do desenvolvimento da IA, questionando se ela está sendo desenvolvida muito rapidamente sem estruturas para garantir que seja realmente usada como uma força para o bem. Sob as circunstâncias certas e desenvolvida com as necessidades das pessoas colocadas à frente e no centro, pode ser uma aliada. No entanto, nas mãos erradas, a IA pode criar viés social, gerar informações enganosas em grande escala e infringir severamente nossos direitos humanos. A regulamentação está na mente de muitas pessoas. Mas a Associação de Dados e Marketing do Reino Unido ( Data & Marketing Association, DMA UK), acredita que, assim como na governança de privacidade de dados, a regulamentação é apenas parte da solução – a ética e a autogovernança têm um grande papel a desempenhar. O documento de abordagem pró-inovação para a regulamentação da IA do governo do Reino Unido, descreve sua abordagem e política futura em relação à regulamentação de IA, pedindo “uso responsável” enquanto evita a implementação do que chama de “pesado-pesado” que sufoca a inovação. legislação entregue”

Como o governo aponta corretamente, para o Reino Unido se tornar uma superpotência de IA, é crucial que façamos todo o possível para criar o ambiente certo para aproveitar os benefícios da IA ​​e permanecer na vanguarda dos desenvolvimentos tecnológicos. Não podemos ignorar nossa bússola moral apenas para acelerar o desenvolvimento da IA ​​para ganhos financeiros ou medidas de corte de custos. Nesse caso, sempre causaria mais mal do que bem. Quatro das principais agências de publicidade compartilham seus “códigos éticos de conduta” para IA generativa. A regulamentação da IA ​​é essencial para criar um impedimento para atores desonestos, onde suas intenções são deliberadamente injustas, portanto, devemos continuar com seu desenvolvimento. Ela também pode oferecer orientação e clareza úteis onde houver incerteza para aqueles que pretendem desenvolvê-la e usá-la de forma ética. Com a rápida taxa de progresso da IA, precisamos estabelecer salvaguardas éticas sem demora.

Para atores genuínos no ecossistema de IA, é aqui que as estruturas baseadas em princípios também podem ajudar e podem ser implementadas em um ritmo mais rápido se as principais partes interessadas de nosso setor trabalharem em coesão. Devemos criar estruturas éticas para o desenvolvimento da IA , colocar a autogovernança, a transparência e a responsabilidade em primeiro plano, essencialmente incorporando na fase de projeto considerações sobre seu impacto potencial nas pessoas. Estruturas similares já existem. A estratégia de IA do governo escocês coloca as pessoas em seu centro e cria princípios éticos e inclusivos para construir confiança na IA. O objetivo é fortalecer o ecossistema de IA nos próximos cinco anos por meio desses métodos. O DMA tem sua própria estrutura baseada em princípios para que nossos membros ajudem os profissionais de marketing a navegar com ética pelo mundo em constante evolução do marketing e da tecnologia. Em 2014, criamos o Código DMA para tornar nosso setor mais responsável, confiável e inclusivo. Ele foi projetado para transcender todas as iterações do desenvolvimento tecnológico e focar em nossos comportamentos e valores como indivíduos e organizações. Não posso falar por outros setores, mas sei que os participantes sérios dos setores de publicidade e marketing sempre tentaram fazer o que é melhor para nossos clientes e funcionários – afinal, uma abordagem centrada no cliente é fundamental para o crescimento sustentável. A IA pode ser um catalisador de criatividade.

O Comitê Criativo do DMA se reuniu recentemente para discutir o papel da IA ​​em nosso setor e como a adotamos de forma ética – particularmente IA generativa, como ChatGPT e Copy AI. Discutimos temas que acreditamos ter o potencial de transcender toda a ética da IA. Para que a IA generativa seja considerada ética, é preciso estar claro quando, onde e como a IA foi usada – com um conteúdo de prova humana antes de se tornar público. Devemos ser responsáveis ​​por qualquer conteúdo que produzimos, assim como quando um humano o cria. A transparência é essencial. As violações de direitos autorais são outro desafio significativo, pois a IA generativa utiliza o conteúdo existente da Internet para criar uma cópia. Devemos garantir que ele possa reconhecer a fonte se o conteúdo exclusivo tiver sido usado para apoiar nossa própria geração de conteúdo. Devemos aumentar a conscientização sobre o viés inconsciente nos dados e a IA generativa para limitar sua proliferação. Se os humanos identificarem onde ela é predominante e sempre considerarem qualquer pessoa afetada no processo de tomada de decisão da IA, podemos dar um passo mais perto de otimizar seu uso ético. como uma ferramenta que os humanos usam para auxiliar e aprimorar nossas próprias habilidades, usando o melhor da intuição, estratégia e experiência humanas em conjunto com o notável cálculo e memória da máquina da IA. ‘recursos semelhantes aos de pesquisadores privados’, ajudando os usuários a encontrar uma grande variedade de soluções com o clique de um botão, além de nos oferecer um companheiro digital para trocar ideias. Isso nos economizará tempo e recursos em tarefas, liberando nosso melhor mentes para tarefas mais complexas ou criativas que a IA não pode ou não deve lidar.

Suas taxas de sucesso sempre dependerão de quem está usando a tecnologia e como eles são treinados para obter o melhor dela. Isso criará uma série de novas oportunidades de trabalho em vários setores, alterando o mercado de trabalho em vez de diminuir perspectivas de emprego. Como parte de uma abordagem ética da IA, sempre exigirá alguma intervenção humana para promover nossos valores como seres morais – nunca devemos esquecer as pessoas a quem se destina. A IA é uma força para o bem. Como líderes empresariais, devemos não perder nossa conexão humana com os clientes e os valores centrados nas pessoas. Ao criar uma estrutura ética em todo o setor para complementar a regulamentação pendente, podemos definir nossos próprios padrões elevados em termos de como desenvolvemos e usamos a IA para interagir com nossos clientes e o mundo em geral. Para ajudar nosso setor nesse caminho, o DMA recentemente estabeleceu uma força-tarefa multidisciplinar entre nossos 18 comitês e conselhos para desenvolver orientação de IA para profissionais de marketing e para apoiar a abordagem do governo, com base nos importantes pilares de inovação aprimorada e na confiança pública estabelecidas na legislação. A governança e a regulamentação devem coexistir para aprimorar e complementar uma à outra. A IA pode ser desenvolvida e usada como uma força para o bem, mas agora devemos adotar uma abordagem proativa para garantir que qualquer regulamentação criada complemente uma infraestrutura do setor projetada para colocar as pessoas em primeiro lugar.

Artigo de Rachel Aldighieri, diretora administrativa da DMA

Confira matéria no The Drum

Ícone "Verificada pela comunidade"

Veja Também

Sobre

A ABAP agora é Espaço de Articulação Coletiva do Ecossistema Publicitário. Fundada em 1º de agosto de 1949, a ABAP segue trabalhando em prol dos interesses das agências de publicidade junto à indústria da comunicação, poderes constituídos, mercado e sociedade.

Dentre suas realizações estão a cofundação do Conselho Nacional de Autorregulamentação Publicitária (CONAR), do Fórum da Autorregulação do Mercado Publicitário (CENP), do Instituto Verificador de Comunicação (IVC) e do Instituto Palavra Aberta.