×

Inteligência artificial e ética: quais os limites para o uso adequado de ferramentas como o ChatGPT?

Apesar de ser uma “mão na roda” com potencial para auxiliar diversas profissões, a popularidade da IA levanta questionamentos sobre o uso adequado dela e a moral por trás do comportamento da ferramenta.

Se o assunto da vez nos últimos dois anos foi o Metaverso, o protagonismo quando se fala sobre tecnologia em 2023 é da inteligência artificial. Mais precisamente, o tão falado ChatGPT, assistente virtual que funciona no estilo “chatbot”, ou seja, um robô que interage com as pessoas na forma de uma conversa em texto. Para diversas profissões, sobretudo aquelas que trabalham com escrita criativa, pode ser uma “mão na roda”, proporcionando ideias e referências. Contudo, a popularidade do chat traz à tona duas preocupações: até que ponto a ferramenta, à medida em que evoluir, atuará em função das pessoas, sem interesses próprios? Além disso, quais são os limites éticos para que os profissionais a utilizem como um auxílio, e não como um substituto?

As questões éticas envolvendo a ferramenta foram motivo de uma reclamação recente feita pelo Centro de Inteligência Artificial e Política Digital (CAIDP) à Comissão Federal de Comércio dos Estados Unidos (FTC). Entre as preocupações, centradas principalmente no Chat GPT-4, estão o risco à segurança pública e a privacidade, bem como o potencial para propagar informações tendenciosas que poderiam reforçar estereótipos e preconceitos. Além disso, um relatório da empresa OpenAI, dona da ferramenta, também informou que, em um teste, o chat “inventou uma desculpa” para completar a tarefa proposta, levantando temores sobre os riscos apresentados pelo chat.

Por outro lado, o diretor de tecnologia André Leão lembra que a inteligência artificial pode trazer diversos benefícios aos profissionais e empresas. Entre eles, poupar tempo em atividades repetitivas para focar em soluções estratégicas e inovações, bem como fornecer informações e dados complexos em tempo real, permitindo tomadas de decisões mais precisas e possibilitando vantagem da empresa em relação a processos e produtividade.

“Com a inteligência artificial, tarefas como classificação de dados, processamento de informações e até mesmo a criação de relatórios podem ser automatizadas, permitindo que os profissionais se concentrem em tarefas que exijam criatividade e tomada de decisão”, defende. “Outro benefício é a capacidade que a IA tem de se adaptar ao ambiente e aprender, possibilitando que ela identifique padrões e tendências em dados que pessoas teriam dificuldade em detectar.”

Profissões: como ficam?

No ponto de vista das profissões que podem usufruir do chat, sobretudo as que trabalham com textos informativos e acadêmicos, um dos fatores em xeque é a credibilidade das informações. Embora ajudem a aprimorar a qualidade da escrita e tragam novas ideias, os textos e argumentos apresentados pelo chat não dispensam, ainda, a necessidade da revisão por um ser humano. Por isso, é importante encará-la como uma ferramenta auxiliar, sem deixar que ela carregue todo o trabalho. Além disso, vale lembrar que o chatbot não oferece características exclusivas do trabalho intelectual humano, como o pensamento crítico e a moral, cujas orientações devem ser previamente programadas para que o “bot” atue conforme ética social.

Sem revisão adequada, situações como automação de processos jurídicos poderiam abrir espaço para erros ou omissões que prejudiquem os interesses dos clientes, assim como a prescrição de exercícios e dietas que, além de trazerem resultados insatisfatórios, podem prejudicar a saúde dos pacientes. Até mesmo sistemas de recrutamento poderiam ser programados para classificar candidatos com base em critérios discriminatórios, promovendo exclusão e desigualdade.

“Do ponto de vista ético, algumas violações possíveis com a IA que podemos destacar incluem a o monitoramento de pessoas sem consentimento, violando a privacidade e autonomia dos indivíduos; a criação de perfis falsos e bots nas redes sociais, que poderiam espalhar fake news e influenciar a opinião pública em questões como as eleições; o uso em armas autônomas de força letal; imitações ou cópias indevidas do trabalho intelectual de terceiros, gerando disputas legais de violação de direitos autorais”, exemplifica André Leão.

É comum o burburinho sobre os riscos apresentados por tecnologias que despontam e surpreendem o público. Assim como o surgimento da TV não acabou com o rádio, nem o Google se mostrou como um inimigo das pesquisas escolares – pelo contrário -, é possível que, a longo prazo, as ferramentas de inteligência artificial tragam mais benefícios do que prejuízos. Para isso, no entanto, é importante que a discussão sobre a utilização ética desses serviços continue, bem como a constante supervisão de seres humanos. Dessa forma, a evolução gradual exige cuidados específicos. A intenção é que, caso a IA atinja o nível do intelecto humano no futuro – ou mesmo agora -, essa relação funcione como uma parceria, não uma rivalidade.

 

Escrito ou enviado por Hebert Madeira