Considerações éticas sobre a utilização da IA generativa

What is a Brand Discovery ?

A inteligência artificial geradora tornou-se uma tecnologia transformadora com uma gama aparentemente ilimitada de aplicações e a promessa de benefícios sociais generalizados. No entanto, por detrás desta promessa encontram-se inúmeros desafios éticos e comerciais que exigem uma análise cuidadosa.

Medida que a utilização da IA generativa cresce e mais empresas incorporam esta tecnologia nos seus produtos e serviços, o seu impacto na sociedade torna-se cada vez mais evidente. Por este motivo, é urgente abordar as dimensões éticas da utilização generalizada destas ferramentas, a fim de garantir que o seu desenvolvimento e implantação estão em conformidade com os valores fundamentais da sociedade.

O que é a IA generativa?

A IA generativa refere-se a uma família de modelos de aprendizagem profunda dotados de uma capacidade extraordinária de criar conteúdos, sejam eles textos, imagens ou outros tipos de dados, que se assemelham muito às informações sobre as quais foram treinados. Ao analisar os padrões dos dados de treino, estes algoritmos adquirem a capacidade de gerar resultados novos e inovadores, produzindo essencialmente novas amostras dentro do mesmo formato de dados.

Os modelos de IA generativa têm uma grande versatilidade e variedade, desde os concebidos para gerar texto ou áudio até aos que analisam conjuntos de dados (historial médico, decisões judiciais, séries estatísticas…) a partir dos quais produzem relatórios. Cada uma destas abordagens levou ao desenvolvimento de diferentes produtos e serviços que não só estão a fazer avançar a compreensão da IA, como também oferecem vantagens significativas em comparação com produtos e serviços que não incorporam IA generativa.

Os modelos de difusão são excelentes quando se trata de criar conteúdos visuais e multimédia ou de realizar tarefas como preencher e expandir imagens, especialmente quando recebem uma mensagem textual que especifica o resultado pretendido. Os modelos de difusão proeminentes para a geração de imagens incluem o DALL-E 2, o Image GPT, o Midjourney e o Stable Diffusion.

 

Casos de utilização da IA generativa

As potenciais aplicações da IA generativa abrangem vários sectores, incluindo os serviços financeiros, a educação e os cuidados de saúde. No sector bancário, a IA generativa pode ajudar a detetar transacções fraudulentas, gerar dados sintéticos para treinar modelos de aprendizagem automática, proteger os dados dos clientes utilizando GAN para estimar o valor em risco e prever potenciais perdas em cenários específicos, entre outros.

Na educação, tem a capacidade de revolucionar a conceção de cursos personalizados, melhorar a aprendizagem dos alunos através de simulações virtuais e restaurar materiais de aprendizagem históricos. E no sector da saúde, as aplicações incluem a descoberta e o desenvolvimento de medicamentos, tratamentos personalizados, imagiologia médica e gestão da saúde da população, entre outras aplicações transformadoras.

Dilemas éticos na utilização da IA generativa

Apesar do seu potencial aparentemente ilimitado, a IA generativa tem os seus inconvenientes. A utilização desta tecnologia introduz uma série de dilemas éticos, incluindo a perpetuação de preconceitos pré-existentes, preocupações com a propriedade intelectual e os direitos de autor, bem como a responsabilidade decorrente da potencial capacidade de gerar notícias falsas ou de se fazer passar por indivíduos, como aconteceu recentemente na Colômbia, com advogados colombianos a apresentarem uma ação em tribunal citando casos falsos “inventados” pelo ChatGPT. Estas questões críticas exigem uma análise cuidadosa e soluções ponderadas.

À medida que a utilização da IA generativa cresce, aumentam também as preocupações com a sua potencial utilização indevida, o que levou à criação de iniciativas como quadros regulamentares e legislativos específicos para incentivar o desenvolvimento responsável e sustentável da IA generativa.

A Comissão Europeia foi um dos primeiros organismos a agir, publicando em 2019 as suas “Orientações Éticas para a IA de Confiança”. Estas orientações salientam a importância de os sistemas de IA cumprirem as leis, aderirem aos princípios éticos e serem técnica e socialmente robustos. Neste contexto, são identificados sete requisitos fundamentais.

Requisitos éticos para uma IA fiável

Estes seriam os requisitos fundamentais:

  • Agência humana e supervisão:

É consensual que qualquer sistema de IA deve dar poder aos seres humanos, proteger os seus direitos e permitir a supervisão humana. No entanto, a IA generativa coloca desafios únicos a este respeito, como a criação de bolhas de conteúdos que limitam os diferentes pontos de vista sobre a informação que chega ao utilizador. Por outro lado, a aplicação de preconceitos à IA generativa pode facilitar a manipulação maliciosa da informação com o objetivo de influenciar a opinião pública. Quando aplicadas às redes sociais, as capacidades da IA generativa podem ser utilizadas para induzir os utilizadores em erro, conduzindo a percepções distorcidas da realidade e a um aumento das pressões sociais. Encontrar o equilíbrio certo entre o imenso potencial da IA generativa e a necessidade de intervenção e supervisão humanas exige um acompanhamento contínuo, investigação e desenvolvimento de ferramentas e políticas que promovam a autonomia dos utilizadores e atenuem os potenciais impactos negativos.

  • Robustez técnica e segurança:

A crescente sofisticação da IA generativa levanta questões sobre a sua segurança e fiabilidade. Uma das preocupações mais generalizadas é o facto de a IA generativa contribuir para a disseminação de desinformação e notícias falsas, influenciando a opinião pública. Nesse sentido, a criação de imagens falsas muito convincentes de figuras importantes, conhecidas como deepfakes, é uma das maiores preocupações em torno da IA generativa, uma vez que podem ser utilizadas para propaganda política ou para desacreditar indivíduos ou organizações. A investigação contínua sobre as vulnerabilidades dos sistemas de IA e o desenvolvimento de contramedidas robustas ajudarão a reduzir os potenciais danos causados pelas notícias falsas e pelas deepfakes. Neste contexto, a estreita colaboração entre governos, empresas tecnológicas e peritos em cibersegurança será crucial para abordar adequadamente as questões de segurança e robustez técnica da IA generativa.

  • Privacidade e governação de dados:

A IA generativa baseia-se em grandes conjuntos de dados, incluindo informações pessoais e protegidas por direitos de autor, normalmente recolhidas através da Internet. Treinar a IA com dados protegidos por direitos de autor sem autorização pode conduzir a infracções e mesmo a violações dos direitos de autor e à possibilidade de os conteúdos gerados pela IA carecerem de originalidade e se assemelharem muito a obras existentes. O desenvolvimento ético da IA generativa deve envolver práticas claras de governação de dados, incluindo políticas rigorosas de recolha, armazenamento e utilização de dados. Além disso, a resolução das ambiguidades sobre os direitos de autor dos conteúdos gerados pela IA será essencial para promover um ambiente justo e em conformidade com a lei.

  • Transparência:

Por vezes, pode surgir incerteza sobre o funcionamento interno do procedimento de IA em relação à tomada de decisões dos algoritmos aplicados, sendo necessário um exercício de transparência para interpretar e explicar os resultados dos modelos de IA generativa. Estes métodos podem incluir a visualização dos processos internos do modelo, a análise das suas representações aprendidas ou o teste dos seus resultados com dados do mundo real.

  • Diversidade, não discriminação e equidade:

Uma questão particularmente controversa que surgiu com o crescimento da utilização da IA generativa centra-se na qualidade e diversidade dos dados de treino. Tem havido casos de modelos de IA generativa que trabalham com dados pessoais ou imagens que reforçam estereótipos sexuais ou raciais ou sub-representam determinados grupos. A resolução destes preconceitos exige uma conceção cuidadosa, uma avaliação contínua e uma seleção responsável dos dados de formação. Inevitavelmente, a IA generativa também pode ser utilizada por actores maliciosos para gerar conteúdos ofensivos, incluindo imagens e textos discriminatórios ou violentos, propaganda ou mesmo pornografia falsa. Garantir a diversidade, a não discriminação e a equidade nas aplicações de IA generativa não é apenas um imperativo ético, mas também crucial para a criação de sistemas de IA inclusivos e equitativos.

  • Bem-estar social e ambiental:

Dado o entusiasmo e, muitas vezes, a admiração gerados pela IA generativa, é fácil ignorar algumas das consequências menos desejáveis da rápida adoção desta tecnologia para o ambiente e a sociedade em geral. Estes sistemas de IA generativa requerem recursos computacionais significativos e estima-se que uma consulta ChatGPT consome 3 a 30 vezes mais eletricidade do que uma pesquisa tradicional no Google. Por conseguinte, o crescimento previsto da IA generativa terá de ser acompanhado por uma mudança de paradigma no sentido da utilização de fontes de energia mais sustentáveis para alimentar os centros de dados que acolhem este tipo de aplicações, se não quisermos agravar a crise climática. Outro desafio que pode afetar todos os trabalhadores humanos é a forma como a IA generativa irá alterar a natureza do trabalho. Durante vários anos, os economistas debateram o impacto que os robots e a IA terão nos empregos, em especial nos que envolvem tarefas repetitivas pouco qualificadas e mais fáceis de automatizar. Agora, com o crescimento desta tecnologia, um leque muito mais vasto de empregos está potencialmente em risco, incluindo trabalhadores administrativos, criadores de conteúdos, programadores, representantes de vendas e de serviços ao cliente, entre outros. A resolução destas implicações éticas exige uma abordagem multifacetada, que envolva esforços para reduzir a pegada energética dos sistemas de IA e iniciativas para requalificar e reconverter a mão de obra para o panorama laboral em evolução.

  • Responsabilidade:

À medida que a adoção da IA generativa cresce, há uma necessidade clara e urgente de uma regulamentação melhor e mais precisa para resolver o problema da responsabilidade. Os algoritmos estocásticos que accionam estes sistemas de IA generativa criam por vezes “alucinações”, que não fazem sentido ou são comprovadamente falsas. Um caso recente envolveu uma equipa de advogados nos EUA que não se apercebeu de que o ChatGPT tinha inventado as citações e referências que utilizaram num processo judicial. Integrar a supervisão humana nos sistemas de IA generativa será essencial não só para detetar alucinações, mas também para garantir a tomada de decisões éticas, reduzir potenciais preconceitos e contestar acções que pareçam absurdas.

A proposta de Lei Europeia da Inteligência Artificial

No domínio emergente da governação da inteligência artificial, a União Europeia deu um passo significativo ao propor, em 2021, a Lei da IA (também conhecida como Lei da IA), um quadro legislativo abrangente concebido para regular os sistemas de IA. A lei classifica os sistemas de IA em quatro categorias, de acordo com os seus riscos:

  • Risco inaceitável
  • Risco elevado
  • Risco limitado
  • Risco baixo (ou mínimo)

Este quadro tem por objetivo estabelecer um equilíbrio entre a promoção da inovação e a salvaguarda dos direitos fundamentais, da saúde, da segurança, do ambiente, da democracia e do Estado de direito.

O AI Act levanta questões importantes sobre a forma como devemos regulamentar a inteligência artificial generativa, um domínio em rápido desenvolvimento que engloba sistemas como o ChatGPT e os modelos de grande linguagem (LLM).

A legislação proposta baseia-se em grande medida nas leis existentes da União Europeia (UE), como o Regulamento Geral sobre a Proteção de Dados (RGPD) e a Lei dos Serviços Digitais, e exige que os LLMs por detrás da IA generativa tenham salvaguardas suficientes contra a geração de conteúdos que violem essas leis.

A Comissão reconhece que os chamados modelos fundamentais, como o GPT-4 da OpenAI, que está na base do ChatGPT, requerem uma atenção especial, porque são capazes de realizar uma vasta gama de tarefas gerais, pelo que quaisquer erros ou distorções no modelo subjacente podem afetar potencialmente um grande número de aplicações construídas com base nestes modelos.

Consequentemente, os fornecedores de sistemas de IA generativa estarão sujeitos a requisitos de transparência adicionais, incluindo:

  • Divulgação da geração de IA:

Os fornecedores devem informar os utilizadores de que o conteúdo que encontram é gerado por IA. Uma comunicação clara é crucial, especialmente quando a IA interage com pessoas singulares.

  • Conceção responsável:

Os fornecedores têm a responsabilidade de conceber e formar os seus modelos com salvaguardas para evitar a geração de conteúdos ilegais ou nocivos. Isto estende-se ao respeito dos direitos fundamentais, incluindo a liberdade de expressão.

  • Transparência dos dados:

Os fornecedores devem publicar resumos da sua utilização de dados de formação que possam estar protegidos por direitos de autor.

É importante esclarecer que estes requisitos não classificam os modelos fundamentais como sistemas de IA de alto risco. Em vez disso, procuram alinhar a IA generativa com os objectivos gerais da Lei da IA: a proteção dos direitos fundamentais, a saúde, a segurança, o ambiente, a democracia e o Estado de direito. É também importante notar que esta proposta de lei ainda está a ser avaliada e espera-se que seja aprovada no início de 2024.

A regulamentação da IA generativa através da futura Lei da IA marca um momento crucial no caminho para uma implementação responsável da IA. Embora constitua um precedente promissor, há ainda muito trabalho a fazer. É crucial criar um quadro claro e adaptável que tenha em conta a natureza versátil da IA generativa. Além disso, este debate ultrapassa as fronteiras da Europa, uma vez que o mundo enfrenta o complexo desafio de regulamentar a IA generativa, promovendo simultaneamente a inovação e protegendo os interesses da sociedade.

Outras estratégias para regulamentar a IA generativa

Fora da UE, outras regiões e países estão a desenvolver legislação para regular a utilização da IA. No entanto, a criação de novas leis é muitas vezes um processo lento e os legisladores podem ter dificuldade em compreender plenamente o potencial desta tecnologia e em acompanhar os seus avanços. Por este motivo, foram propostas muitas outras estratégias e propostas para enfrentar os desafios éticos, jurídicos e sociais colocados pela IA generativa. Eis algumas das principais estratégias e propostas:

  • Directrizes voluntárias e melhores práticas:

As empresas de tecnologia e os criadores de IA estão a trabalhar no sentido de desenvolver directrizes voluntárias e melhores práticas para reger o desenvolvimento e a implementação da GenAI. Embora a autorregulação do sector possa ser rápida e flexível, existem preocupações quanto à sua eficácia e potencial de parcialidade.

  • Quadro de ética da IA:

Algumas organizações e instituições promovem quadros de ética da IA. Por exemplo, o IEEE (Instituto de Engenheiros Eléctricos e Electrónicos) desenvolveu uma Iniciativa Global sobre a Ética dos Sistemas Autónomos e Inteligentes, que inclui orientações para uma IA ética.

  • Avaliações de impacto da IA:

As avaliações de impacto da IA procuram avaliar as potenciais consequências sociais, económicas e éticas da implantação de sistemas de IA generativa, ajudando os decisores políticos a tomar decisões informadas.

  • Governação robusta dos dados:

Alguns regulamentos centram-se numa governação robusta dos dados, garantindo que os dados utilizados no treino da IA são representativos, diversificados e de origem ética. Leis de privacidade de dados mais rigorosas, como o GDPR na Europa, já desempenham um papel aqui.

  • Participação do público:

Algumas iniciativas defendem a participação do público no processo de tomada de decisões sobre a regulamentação da IA generativa. A consulta e o contributo do público podem ajudar a garantir que os sistemas de IA se alinham com os valores e necessidades da sociedade.

  • Organizações independentes de ética da IA:

A criação de comités de ética da IA independentes ou de organismos de supervisão pode ajudar a garantir um controlo mais objetivo e especializado da regulamentação da IA generativa.

 

Estas estratégias e propostas podem funcionar como um complemento à legislação formal e ajudar a criar um ambiente ético e jurídico para o desenvolvimento da IA generativa para além das fronteiras da UE.

Para saber mais sobre as considerações éticas relativas à utilização da IA, convidamo-lo a ler o livro branco da NTT DATA aqui.