ACOMPANHE-NOS     Campo Grande News no Facebook Campo Grande News no X Campo Grande News no Instagram
NOVEMBRO, DOMINGO  24    CAMPO GRANDE 33º

Artigos

Os reflexos causados pelo uso do ChatGPT

Ana Clara Reolon Maarouf (*) | 02/07/2023 13:30

Com a busca para atingir uma maior eficiência, o uso de mecanismos de Inteligência Artificial (IA) em tarefas do dia a dia torna-se mais recorrente. Atividades que antes levavam horas para serem concluídas hoje são realizadas em minutos ou, ainda, em segundos.

 Nesse contexto, em novembro de 2022, a Open AI lançou o ChatGPt – um chatbot de IA capaz de criar textos, responder a questionamentos complexos, solucionar problemas matemáticos, programar códigos ou realizar outras tarefas que possam ser executadas por meio de texto.

A implementação dessas ferramentas é, todavia, uma “moeda de duas faces”. De um lado, o uso de Inteligência Artificial enseja diversos benefícios relacionados à automatização de tarefas repetitivas, a um aumento de produtividade, a possíveis reduções nos custos operacionais, etc. De outro, ela pode acarretar diversos danos, os quais requerem uma atenção maior, uma vez que o ordenamento jurídico no estado em que se encontra não se mostra suficiente para atender à demanda relacionada ao processo de utilização da IA.

Conforme diversas notícias já divulgadas, é nítido que o uso indevido do ChatGPT pode ensejar consequências negativas no que tange, por exemplo, ao processo de aprendizado de estudantes, bem como à formação e ao desenvolvimento de profissionais das mais diversas áreas.

Ao atender ao comando dado pelo usuário, o ChatGPT não indica as fontes das informações utilizadas, impedindo que os usuários possam atestar a confiabilidade da fonte e a veracidade dos dados – que são, em geral, extraídos de conteúdos disponíveis na web. Decorre daí a maior suscetibilidade de utilização de informações falsas, desatualizadas ou, ainda, incorretas, em razão de serem retiradas de contexto, podendo levar à disseminação da desinformação.

No âmbito judicial, o uso de ferramentas como o ChatGPT repercute em questões que vão além do campo da ética e da moral, refletindo em aspectos jurídicos como a responsabilidade pelos erros cometidos por mecanismos de IA em decisões judiciais, como a adoção de uma posição discriminatória por parte da IA.

É o que se chama de enviesamento algorítmico – ou seja, quando há um desvirtuamento das suposições que embasam a resposta gerada, acarretando a propagação de vieses preconceituosos por parte de algoritmos, como o machismo e o racismo. Isso porque mecanismos de IA são alimentados com determinados dados, como os de cunho histórico, que refletem desigualdades sociais e econômicas de outras épocas, de modo que, a partir do momento em que tais dados são utilizados no processo da tomada da decisão, esta pode apresentar um viés discriminatório, favorecendo determinados grupos em face de outros.

A dificuldade, porém, se encontra em identificar o momento em que o viés discriminatório passa a influenciar o sistema, bem como elencar todos os dados processados durante a operação para que os vieses sejam solucionados. Isso porque quanto maiores a base de dados e a complexidade do sistema de operação da IA, menor será a transparência das etapas da operação que levou a determinada decisão.

Ademais, também se observa que a decisão dada por um mecanismo dotado de IA não necessariamente é aquela considerada mais justa, mas, sim, aquela cuja previsão apresenta maior probabilidade, uma vez que não se consideram parâmetros éticos ou morais que os seres humanos utilizam para examinar determinada questão. O obstáculo está no fato de a IA não exprimir juízo de valores, tampouco possuir crenças pessoais ou moral, de modo que suas decisões estariam restritas aos dados que alimentam sua base, razão pela qual a sua utilização deva ser vista apenas como uma forma de auxiliar o Judiciário.

Pontua-se, ainda, que é possível constatar reflexos que cingem os direitos autorais, envolvendo as obras geradas pela IA, bem como as obras que são utilizadas para alimentar a base de dados do ChatGPT. Na primeira hipótese, a dificuldade de identificar quem é o detentor dos direitos autorais reside no fato de que, no processo de criação da obra gerada por IA, há a intervenção de múltiplos sujeitos, de modo que o responsável pela criação não é apenas uma pessoa.

Na segunda, a dificuldade, conforme já mencionado, cinge-se no fato de que os sistemas de IA não são dotados de um processo de processamento dos dados transparente. Tal fato impede que seja possível identificar quais obras foram utilizadas para o aprendizado da IA e, por conseguinte, verificar se estas estão abarcadas pela Lei dos Direitos Autorais e, portanto, se deve haver algum tipo de remuneração pela sua utilização.

Por fim, é possível notar que a utilização do ChatGPT repercute no campo do direito de proteção de dados. No Brasil, a Constituição Federal assegura aos indivíduos “o direito à proteção dos dados pessoais, inclusive nos meios digitais” (inciso LXXIX do art. 5.º). Nesse contexto, a Lei Geral de Proteção de Dados Pessoais estabelece regras claras sobre coleta, uso, armazenamento e compartilhamento de dados pessoais.

São constatados, todavia, alguns obstáculos quando da sua aplicação em razão das possíveis violações referentes à utilização de dados pessoais e sensíveis dos usuários. Cita-se, como exemplo, a inobservância aos processos de anonimização e pseudonimização dos dados pessoais dos usuários.

Embora o uso indevido de ChatGPT possa vir a acarretar malefícios, os pontos negativos suscitados em nada se comparam às façanhas conquistadas pela sua implementação nos mais variados setores – seja na Educação, no Poder Judiciário, no meio empresarial, etc. Assim, a importância de incentivar o desenvolvimento no campo da IA – que inclui o ChatGPT – e o estudo acerca do tema ficam evidentes, uma vez que, se utilizados corretamente, em observância aos princípios e limites impostos, são inúmeros os benefícios que tais sistemas trouxeram e podem vir a trazer diante da criação de novas tecnologias, cujos potenciais são inimagináveis.

(*) Ana Clara Reolon Maarouf é graduanda em Ciências Jurídicas e Sociais pela Universidade Federal do Rio Grande do Sul.

Nos siga no Google Notícias