ChatGPT: inteligência artificial pode auxiliar no ensino e pesquisa
Publicado por: Karen Menegheti de Moraes
30 de março de 2023

Compartilhar:

Foi realizada no Salão Nobre da Faculdade de Ciências Medicas (FCM) da Unicamp, na última quinta-feira (23), a palestra “ChatGPT: Inteligência artificial para o bem e para o mal na graduação, pós-graduação e pesquisa”. O evento, promovido pelo Núcleo de Avaliação e Pesquisa em Educação na Saúde (NAPES) e pelas Comissões de Pós-Graduação e de Pesquisa da FCM, teve como convidado o professor Anderson Rocha, do Instituto de Computação (IC) da Unicamp, especialista nas áreas de inteligência artificial e aprendizado de máquina.

Anderson explica que a inteligência artificial (IA) “capta o dado do mundo, o processa, aprende em cima dele alguma habilidade, armazena esse conhecimento, o interpreta e toma uma decisão. Essa decisão vai levar a uma ação, e, com o tempo, mudam as coisas”. O professor também apresentou a constelação da IA, que mostra as áreas a ela ligadas, como: aprendizado de máquina, percepção, ciência de dados, interface cérebro-computador e processamento de linguagem natural.

O professor lembra, que, desde 2000, tem havido grande avanço do chamado aprendizado de máquina discriminativa, ou seja, quando os algoritmos encontram padrões e conseguem os separá-los de outros. Por volta de 2015, surgiu a inteligência artificial generativa. Nela, o algoritmo é treinado para gerar um conteúdo, passando a estudar a linguagem e aprender contexto.  

Anderson Rocha: o ChatGPT e a IA dependem fundamentalmente do humano para serem operados. As ferramentas, se bem utilizadas, servem para aumentar sua inteligência. Foto: Karen Moraes/ARPI

ChatGPT

Em 2022, surge o ChatGPT, chatbot desenvolvido pela OpenAI e especializado em diálogo. “O GPT é um modelo de linguagem que tem capacidade de analisar muitos exemplos contidos numa grande quantidade de dados e aprender o contexto que vem em seguida. Para operá-lo, você precisa submeter um prompt (comando). Então começa a conversação e, a partir dela, o chat gera as próximas sentenças. Como ele treinou com muitos dados, consegue olhar um contexto muito maior. Isso é muito poderoso, por exemplo, para que ele converse dentro de um assunto sem se perder”, disse Anderson.

Alguns dos exemplos de bom uso do ChatGPT são: resumos de textos; geração de textos de marketing; códigos de depuração; perguntas de previsão; entretenimento; agendamento e marcação de consultas; e educação ou treinamento.  

Alucinação e usos negativos

Porém, o ChatGPT também gera resultados errados, ou “alucina”. Anderson exemplifica com um comando que submeteu sobre “cinco nomes de IA que faleceram nos últimos cinco anos”. O GPT errou, citando três pessoas que estão vivas. “Isso ocorre pois o mecanismo aprende textos representados numericamente (vetores). Um vetor representa ‘professor universitário’, o outro ‘cientista de inteligência artificial’ e o outro ‘morreu nos últimos cinco anos’. Ele faz uma combinação matemática, com esses vetores, muitas vezes gerando algo que não existe (alucinando)”, afirma.

Por outro lado, quando encontra escrita explicitamente determinada informação, com aquele vetor já representado e assimilado, o chat acerta. “Desse modo, não se pode confiar nesse tipo de ferramenta como um respondedor. Ele não é ligado a uma base de conhecimento, como a Wikipédia”, declara Anderson. O problema é que ele alucina “com certeza”, ou seja, entrega afirmativamente o resultado de acordo com sua programação. O palestrante pede atenção a isso. “Hoje, o desafio é produzir respostas que tenham referências. Existe uma grande pesquisa sendo feita na área para checar fatos e produção de fontes. Quando você tem algo específico e consegue checar, a ferramenta aumenta sua inteligência e capacidade, o que é ótimo”.  

Além dos resultados incorretos frutos da alucinação, a ferramenta também pode ser utilizada com finalidades negativas. É possível obter, por exemplo, códigos-fonte para programação de vírus de computador.

Realidades sintéticas

Anderson destaca que uma das mudanças trazidas pela AI são as chamadas realidades sintéticas, ou seja, que mudam nossa percepção da realidade. Além dos textos, elas ocorrem por meio de imagens e vídeos, como Dall.E 2 e Adobe Firefly, que geram imagens a partir de comandos; e as deepfakes, usadas para combinar falsamente um som ou imagem qualquer a um vídeo existente.

Um dos grandes produtos das realidades sintéticas é a obra do artista Jason Allen, Teatro da Ópera Espacial (2022), criada totalmente com a inteligência artificial. “Essa é o primeiro exemplo de obra premiada numa competição de arte geral. O artista fez uma interação com algoritmo com mais de 800 prompts e refinamentos. Há toda uma discussão hoje no mundo artístico sobre se isso é arte”, diz Anderson, lembrando que a discussão é antiga, remetendo à obra Fonte (1917), de Marcel Duchamp.   

Para Eliana Amaral, coordenadora do NAPES/FCM, a área de diagnóstico e sugestão terapêutica será bastante invadida por esse tipo de ferramenta, agregando valor ao profissional de saúde enquanto cuidador. Foto: Karen Moraes/ARPI

Aplicação na educação

Anderson alerta para o fato de que hoje o professor deixou de ser uma espécie de detentor do conhecimento. “O docente tem que ser uma figura que ensina a pensar criticamente, porque muitas vezes o aluno já vai para a aula tendo visto muito conteúdo. Isso é bom. Mostra que o ambiente de formação mudou; é contínuo e ativo. Aquela velha forma de mandar o aluno fazer um resumo de um livro em casa já era errada - o ChatGPT obter só acelerou o processo de a gente ver isso”.

O professor do IC cita o exemplo do serviço Talk to Books, do Google, em que o usuário fornece um livro de entrada para o algoritmo, para que o mesmo possa aprender sobre a obra. Em seguida, pode fazer qualquer pergunta a respeito, como explicar passagens, quais são os personagens principais, o que aconteceu depois de determinado fato. “Isso está mudando a forma como a gente educa. Você obtém um modelo que aumenta o poder de um aluno em sala de aula. Ele consegue rapidamente fazer associações que antes talvez não seriam possíveis, como enxergar formas geométricas em 3D”.

Uso crítico

Anderson também aponta ressalvas sobre o uso dessas ferramentas. “Noam Chomsky fez uma definição muito interessante sobre ChatGPT, mostrando que é uma promessa falsa de inteligência artificial geral. Trata-se de um gerador de sentenças que tem muita aplicação, mas que não pensa por conta própria. Esses algoritmos não entendem causa e efeito”, diz, lembrando que essa associação é importantíssima em áreas como a Medicina, daí a importância de o protagonismo continuar com o ser humano.

“A lição que eu gostaria de deixar para vocês é que essa inteligência artificial deveria ser uma inteligência aumentada. Nós devemos sempre ter o humano no centro de tudo, participando do processo decisório e explicativo. Quem não utilizar a IA vai ficar para trás, pois ela dá a capacidade de processar a explosão de dados em que vivemos”, declara o palestrante.

A palestra contou com a tradução para LIBRAS, feita pela Central TILS. Participaram as intérpretes Juliana Moraes e Lilian Paiato. Foto: Karen Moraes/ARPI

Perguntas do público

Uma das perguntas feitas foi sobre aplicabilidade na área de avaliação em Medicina, que permitiria avançar no desenvolvimento de novos casos clínicos.

Para Anderson, “A inteligência pode ajudar facilitando o processo de desenvolver contextos para avaliação ou desenvolvendo novos casos, mediante a entrada de palavras adequadas. A gente pode aprender a fazer isso”. Ele citou novamente o “Talk to Books”: submetendo um livro com casos clínicos, pode ensinar o algoritmo. No caso de produzir um novo caso, o usuário pode informar as condições de um paciente e pedir para ele completar com os sintomas. “Você, como especialista, precisa avaliar se aquele caso gerado tem sentido. É prioritário criar cenários personalizados a cada momento, para diferentes especialidades médicas. Isso vai elevar o nível da educação, mas precisa da inteligência humana por trás para avaliá-lo”.

Outro questionamento foi em relação à utilização do ChatGPT para geração de textos científicos, colocando em xeque a originalidade e a ética da produção científica.

“A geração de artigos ou de obras de arte usando esses algoritmos tem que ser crítica. Considerando o aspecto ético, se você pega inspiração em outros trabalhos para gerar algo, ok. Se eu ler 200 livros, estou inspirado por eles para escrever o meu livro. O problema é que esses algoritmos muitas vezes fazem cópias do texto lido. Nesse caso, temos o problema do plágio. Então, eu enxergo ChatGPT como uma ferramenta para engrandecer o que vai ser produzido”, respondeu Anderson, informando que atualmente há cerca de 200 livros disponíveis na Amazon totalmente gerados pelo GPT, o que recai na questão do plágio.

Uma aluna de mestrado perguntou sobre a possibilidade de também submeter e ser respondida por meio de vídeos, considerando a acessibilidade para pessoas surdas. 

Anderson afirmou que já existem tecnologias em que se pode pedir a sumarização de um vídeo, e essa sinalização é feita de forma visual. Há também imagens e vídeos que podem ser passados por um algoritmo como entrada e serem retornados com descrição textual. “A partir de um vídeo de 10 minutos pode ser gerado um menor, com as partes mais importantes. Ou você pode pedir para ele descrever o que tem no vídeo. Porém, trata-se de um algoritmo que ainda precisa ser muito melhorado, o que deve ocorrer nos próximos dois ou três anos”.

Por fim, foi questionado o que população vai fazer no futuro com toda a capacidade intelectual e possiblidades financeiras geradas pela IA.

O professor afirmou que existem várias linhas de pesquisa, desde o ponto de vista da criação de uma renda universal, até a possiblidade da substituição humana total (singularidade tecnológica). “Eu quero um mundo em que a inteligência artificial seja para aumentar a nossa capacidade. Nós temos o capitalismo com alguns bilionários que querem substituir o humano cada vez mais. Mas para onde a gente vai? Eu acredito que devemos trabalhar o desenvolvimento da IA ética para nos aumentar e não para nos substituir”, finalizou.

Confira a palestra na íntegra no YouTube da FCM.

Público participante no Salão Nobre da FCM. Foto: Karen Moraes/ARPI

 



Notícias mais recentes



Deputado estadual Eduardo Suplicy visita CIATox, da FCM, para conhecer pesquisas sobre análise de cannabis medicinal

(Divulgação) XXIX Curso de Inverno em Farmacologia FMRP-USP - inscrições até 08/05

Edital Interno de Seleção para Banco de Médicos Tutores no Âmbito do Projeto Mais Médicos para o Brasil

HC, FEnf e ProEC lançam o projeto Meses Coloridos para prevenção de doenças

Professora Fernanda Orsi é homenageada por Sociedade Americana de Hematologia

Faculdade de Ciências Médicas
Universidade Estadual de Campinas

Correspondência:
Rua Vital Brasil, 80, Cidade Universitária, Campinas-SP, CEP: 13.083-888 – Campinas, SP, Brasil
Acesso:
R. Albert Sabin, s/ nº. Cidade Universitária "Zeferino Vaz" CEP: 13083-894. Campinas, SP, Brasil.
Desenvolvido pela TI / FCM