Confusões e dilemas da antropomorfização das inteligências artificiais

Autores

  • Anderson Röhe Pontifícia Universidade Católica de São Paulo
  • Lucia Lucia Pontifícia Universidade Católica de São Paulo

DOI:

https://doi.org/10.23925/1984-3585.2023i28p67-75

Palavras-chave:

Inteligência Artificial Generativa, emoções, racismo, uso humano

Resumo

Uma das principais razões de confusões, que rondam a compreensão daquilo que a Inteligência Artificial Generativa (IAGs) é ou não capaz de realizar, consiste em tomá-las à imagem e semelhança dos humanos, como se fossem, inclusive capazes de sentimentos ou como se elas próprias fossem racistas. Diante disso, este artigo visa debater quais os limites das IAGs e qual o papel que os humanos desempenham no uso que fazem delas. O resultado esperado é desmistificar a eficácia das IAs para a detecção de emoções ou para comportamentos éticos, sobretudo em relação aos cuidados a serem tomados em ambientes vulneráveis como a sala de aula.

Downloads

Não há dados estatísticos.

Metrics

Carregando Métricas ...

Biografia do Autor

Anderson Röhe, Pontifícia Universidade Católica de São Paulo

Advogado na Comissão Especial de Privacidade, Proteção de Dados e Inteligência Artificial da OAB-SP. Fellow no Think Tank ABES (GT de Inteligência Artificial). Pós-graduado em Direito Digital pela Universidade do Estado do Rio de Janeiro (UERJ) e Instituto de Tecnologia e Sociedade Rio (ITS Rio). Mestre em Políticas Internacionais pela PUC-Rio. Doutorando em Tecnologias da Inteligência e Design Digital da PUC-SP. Orcid: https://orcid.org/0000-0002-3104-6365.

Lucia Lucia, Pontifícia Universidade Católica de São Paulo

É pesquisadora 1A do CNPq, professora titular na pós-graduação em Comunicação e Semiótica e em Tecnologias da Inteligência e Design Digital (PUC-SP). Doutora em Teoria Literária pela PUC-SP e Livre-docente em Ciências da Comunicação pela USP. Publicou 56 livros e organizou 33, além da publicação de quase 500 artigos no Brasil e no exterior. Recebeu os prêmios Jabuti (2002, 2009, 2011, 2014), o prêmio Sergio Motta (2005) e o prêmio Luiz Beltrão (2010). Orcid: https://orcid.org/0000-0002-0681-6073.

Referências

BOSTROM, Nick. Entrevista concedida a Martin Ford. In: Ford, Martin (ed.). Architects of intelligence: The truth about AI from the people building it. Birmingham: Packt, 2018, p. 97-116.

CEJKINSKI, Alessandra Sciammarella. As microexpressões faciais: uma investigação semiótica do poder de comunicação da face humana. Dissertação de Mestrado em Comunicação e Semiótica. São Paulo, PUC-SP, 2022.

CHALMERS, David J. The meta-problem of consciousness. Journal of Consciousness Studies, v. 25, n. 9–10, p. 6–61, 2018. Disponível em: https://philpapers.org/archive/CHATMO-32.pdf. Acesso em: 10 jan. 2024.

HUDLICKA, Eva. Affective computing for game design. In: Proceedings of the 4th North American Conference on Intelligent Games and Simulation. Montreal: McGill University, p. 5-12, 2008.

KAUFMAN, Dora; JUNQUILHO, Tainá; REIS, Priscila. Externalidades negativas da inteligência artificial: conflitos entre limites da técnica e dos direitos humanos. Revista de Direitos e Garantias Fundamentais, Vitória, v. 24, n. 3, set./dez. 2023 p. 44. Disponível em: https://sisbib.emnuvens.com.br/direitosegarantias/article/view/2198. Acesso em: 21 dez., 2023.

KOLLER, Daphne. Entrevista concedida a Martin Ford. In: Ford, Martin (ed.). Architects of intelligence. The truth about AI from the people building it. Birmingham: Packt, 2018, p. 387-403.

LEROBITCAST. Antropomorfização da IA. Medium, 7 maio 2023. Disponível em: https://medium.com/@lerobitcast/antropomorfiza%C3%A7%C3%A3o-da-ia-caccc5d13a80. Acesso em: 2 jul. 2023.

MALAR, João Pedro. O ChatGPT mente? Entenda as “alucinações” de inteligências artificiais. Exame, 19 maio, 2023. Disponível em: https://exame-com.cdn.ampproject.org/c/s/exame.com/future-of-money/o-chatgpt-mente-entenda-as-alucinacoes-de-inteligencias-artificiais/amp/. Acesso em: 3 jul. 2023.

MARCUS, Gary. Entrevista concedida a Martin Ford. In: Ford, Martin (ed.). Architects of intelligence. The truth about AI from the people building it. Birmingham: Packt, 2018, p. 305-330.

MARTINS, Flávia. Chat GPT-4: inteligência artificial mente para completar tarefa e gera preocupação. CNN Brasil, 24 mar. 2023. Disponível em: https://www.cnnbrasil.com.br/tecnologia/chat-gpt-4-inteligencia-artificial-mente-para-completar-tarefa-e-gera-preocupacao/. Acesso em: 22 dez. 2023.

OPENAI. GPT-4 Technical Report. Disponível em: https://cdn.openai.com/papers/gpt-4.pdf. Acesso em: 26 dez. 2023.

PICARD, Rosalind Wright. Affective Computing. MIT Media Laboratory Perceptual Computing Section Technical Report No. 321, 1995.

PICARD, Rosalind Wright. Affective computing. Cambridge, MA: Mit Press, 2000.

SANTAELLA, Lucia. De onde vem o poder da mentira? São Paulo: Estação das Letras e Cores, 2021.

SANTAELLA, Lucia. Neo-humano. A sétima revolução cognitiva do Sapiens. São Paulo: Paulus, 2022.

SANTOS, Nina; SOARES, Matheus. Potencial do Brasil para IA está na qualidade dos dados oficiais. Desinformante, 26 dez., 2023. Disponível em: https://desinformante.com.br/brasil-ia-dados/. Acesso em: 27 dez., 2023.

SOMERS, Meredith. Emotion AI, explained. MIT Edu, 2019. Disponível em: https://mitsloan.mit.edu/ideas-made-to-matter/emotion-ai-explained. Acesso em: 29 set., 2023.

TENENBAUM, Joshua. Entrevista concedida a Martin Ford. In: Ford, Martin (ed.). Architects of intelligence. The truth about AI from the people building it. Birmingham: Packt, 2018, p. 473-491a.

TREVISAN, Daniel; BRAGA, Alexandre. Inteligência artificial nos games. TECCOGS – Revista Digital de Tecnologias Cognitivas, n. 26, jul./dez., 2022, p. 89–101.

Downloads

Publicado

2024-06-14