Open-access Geração de textos dinâmicos e criativos com Grandes Modelos de Linguagem (LLMs): uma revisão sistemática

Generating dynamic and creative texts with Large Language Models (LLMs): a systematic review

Resumo

Este artigo apresenta uma revisão sistemática da literatura sobre a aplicação de Grandes Modelos de Linguagem (LLMs) na geração e identificação de textos criativos e dinâmicos com base em referenciais simbólicos, narrativos e do imaginário literário, considerando publicações entre 2014 e 2024. A análise contempla duas etapas principais: (1) triagem e curadoria bibliográfica automatizada com apoio de ferramentas baseadas em inteligência artificial e (2) análise crítica das abordagens, desafios e oportunidades presentes na literatura selecionada. As ferramentas utilizadas permitiram gerenciar referências, extrair metadados e identificar padrões temáticos. Os resultados indicam predominância de estudos voltados à geração criativa de textos e à detecção de linguagem figurada, como metáforas, com uso crescente de modelos híbridos que combinam estruturas simbólicas e subsimbólicas. Conclui-se que, apesar do potencial dos LLMs para a criatividade computacional, persistem desafios como baixa interpretabilidade e escassa adaptação a contextos culturais não hegemônicos.

Palavras-chave:
Grandes Modelos de Linguagem; Imaginário literário; Revisão sistemática

Abstract

This article presents a systematic review of the literature on the application of Large Language Models (LLMs) in generating and identifying creative and dynamic texts based on symbolic, narrative, and literary imaginary references, considering publications from 2014 to 2024. The analysis encompasses two main stages: (1) automated bibliographic screening and curation with the support of tools based on artificial intelligence, and (2) critical analysis of the approaches, challenges and opportunities present in the selected literature. The tools used made it possible to manage references, extract metadata, and identify thematic patterns. The results indicate a predominance of studies focused on the creative generation of texts and the detection of figurative language, such as metaphors, with increasing use of hybrid models that combine symbolic and sub-symbolic structures. The conclusion is that, despite the potential of LLMs for computational creativity, challenges persist such as low interpretability and poor adaptation to non-hegemonic cultural contexts.

Keywords:
Large Language Models; Literary imaginary; Systematic review

1 Introdução

No campo da Inteligência Artificial (IA), o desenvolvimento de Grandes Modelos de Linguagem (Large Language Models, LLMs) mais eficientes, que compreendam, criem e interajam cada vez mais semelhantes à linguagem humana (Jurafsky; Martin, 2023, p. 406) é um campo em contínuo desenvolvimento. Esses modelos conseguem gerar textos, resumir conteúdo, fazer traduções, classificações, categorizações, análises e muito mais; todas essas funcionalidades oferecem ao ser humano um suporte tecnológico para aumentar e melhorar a produtividade, resolver problemas e tomar decisões.

Os LLMs são modelos de linguagem avançados treinados com grande volume de dados. Esses modelos constituem uma especialização dentro do campo da IA com foco no Processamento de Linguagem Natural (PLN) e são fundamentais para IA Generativa (IAG). Utilizando técnicas de aprendizado profundo, eles buscam capturar, dentro do possível, as diferenças sutis e complexidades inerentes à linguagem humana (Chang et al., 2023, p. 23). A partir dessa base conceitual, eles têm demonstrado eficácia em uma variedade de tarefas de PLN, incluindo a geração de texto, tradução automática, reconhecimento de voz, análise de sentimentos e resposta automática a perguntas. No cenário atual, encontra-se, por exemplo, a série GPT (Generative Pre-trained Transformer) da OpenAI, o PaLM 2/Bard da Google, o Claude da Anthropic, o Llama 4 da Meta e o DeepSeek.

Apesar desse potencial demonstrado, ainda há limitações e desafios significativos a serem superados pelos LLMs (Jovanovic; Campbell, 2022). Entre eles, a questão da qualidade e da coerência dos textos gerados por algoritmos de IAG, que, embora gramaticalmente corretos, muitas vezes, carecem de coesão e profundidade característicos da criatividade humana (Santo et al., 2023). Somam-se a isso as “alucinações” - respostas geradas que podem ser sem sentido, gramaticalmente incorretas ou factualmente erradas (Alkaissi; McFarlane, 2023) - como uma preocupação. Ainda que haja curadoria dos dados de treinamento, eles ainda podem produzir saídas inesperadas ou imprecisas, especialmente quando confrontados com prompts ambíguos ou fora de seu domínio de treinamento (Kaufman, 2022, p. 45).

Como visto, embora LLMs representem avanços na compreensão e geração de linguagem natural, eles ainda enfrentam desafios relacionados à complexidade do uso linguístico humano, pois a comunicação humana é profundamente influenciada por fatores contextuais, sociais e emocionais, como o ambiente, o interlocutor, questões sociais e sentimentos (Labov, 2008; Bagno, 2011; Bakhtin, 2003). Por exemplo, num contexto de interação comunicativa, seja oral ou escrito, a intenção comunicativa das pessoas muda conforme o interlocutor e o ambiente, e isto tem impacto direto em suas escolhas linguísticas, como na seleção do léxico, estilo, entonação, linguagem ou discurso (Bagno, 2011). Essas escolhas são normalmente motivadas pelo contexto de uso, como o ambiente profissional, escolar, festivo ou um velório (Bakhtin, 2003; Marcuschi, 2007; Bronckart, 1999; Dolz; Schneuwly, 2004).

O interlocutor, receptor ou destinatário, também exerce influência na forma como a linguagem é usada. O sucesso da comunicação depende da interação entre locutor, receptor, mensagem, canal, código e referente, em uma relação de compreensão e participação ativa do interlocutor. Em situações reais, locutor e receptor trocam frequentemente de papéis e perfis conforme o contexto e o gênero textual (Jakobson, 1976; Bakhtin, 1997; Saussure, 1999; Marcuschi, 2007).

Além disso, aspectos sociais, como idade, gênero, classe social, nível educacional, também influenciam o modo como as pessoas se expressam (Labov, 2008). Do mesmo modo, sentimentos como orgulho, carência, paixão, ódio afetam as escolhas linguísticas (Bakhtin, 2003).

A soma desses fatores - ambiente, interlocutor, questões sociais e sentimentos - juntamente com o domínio linguístico, é determinante para a intenção comunicativa, isto é, eles influenciam na forma como as pessoas se expressam e nas escolhas linguísticas que fazem, tornando a linguagem mais ou menos criativa, formal, vulgar, infantil, polida (Bagno, 2011; Bakhtin, 2003).

Neste contexto, seja na oralidade ou na escrita, a língua adquire dimensões fenomenológicas, pois deixa de ser somente uma estrutura de regras objetivas e passa a ser um fenômeno abstrato, constituído pela experiência vivida - uma manifestação concreta e intersubjetiva da linguagem (Husserl, 1975; Heidegger, 2012; Merleau-Ponty, 1999). Essa vivência dinâmica e compartilhada da linguagem, como fenômeno vivo, reinventa-se continuamente através da interação social, nos quais a multiplicidade de perfis e papéis sociais permite que intenções discursivas gerem inovações linguísticas, como metáforas; subvertam normas linguísticas por meio do humor e da crítica, como ironias e sarcasmos; e criem variações com neologismos. Por fim, esse processo também gera fenômenos como apropriação linguística (uso de estrangeirismos) e o cruzamento lexical, influenciados por fatores como tecnologia e cultura. Isto resulta na ressignificação da linguagem em novos ambientes, como as redes sociais (ex.: TikTok, WhatsApp), em que surgem neologismos e gírias.

A linguagem natural é dinâmica, criativa e permeada por fenômenos e elementos que desafiam os modelos computacionais a irem além da simples reprodução de padrões probabilísticos, exigindo uma compreensão mais profunda das intenções e das relações sociais subjacentes à comunicação. Portanto, o desenvolvimento de LLMs mais eficientes não é tão-só um desafio técnico, mas também uma busca por aproximar a inteligência artificial da riqueza e complexidade do uso real da linguagem natural.

Pensando nisso, este estudo objetiva realizar uma revisão sistemática estruturada da literatura sobre a aplicação ou a implementação de Grandes Modelos de Linguagem (LLMs) para a identificação ou geração de textos dinâmicos e criativos entre os anos de 2014 e 2024 para responder a seguinte pergunta de pesquisa: “Quais são as abordagens existentes, os desafios enfrentados e as oportunidades identificadas no uso de Grandes Modelos de Linguagem (LLMs) com referenciais simbólicos, narrativos ou do imaginário literário?”.

2 Grandes modelos de linguagem

A evolução dos Grandes Modelos de Linguagem (LLMs) representa a popularização da Inteligência Artificial por meio de chats, por exemplo, como GPT. Esses modelos, que hoje ocupam papel central em soluções de automação linguística, têm suas raízes fincadas em décadas de desenvolvimento teórico e técnico que começam nas primeiras tentativas de simular o funcionamento cognitivo humano por meio de redes neurais artificiais.

O marco fundacional dessa trajetória remonta à década de 1940, quando McCulloch e Pitts (1990) propuseram em 1948 um modelo lógico para o funcionamento dos neurônios, estabelecendo as bases para o desenvolvimento de redes neurais. Na década seguinte, o Perceptron, de Rosenblatt (1958), deu início ao uso prático dessas redes em tarefas simples de classificação, inaugurando uma abordagem computacional que buscava replicar, ainda que rudimentarmente, processos de aprendizagem humana. Contudo, a limitação do Perceptron em resolver problemas não-lineares, evidenciada por Minsky e Papert (2017) em 1969, conduziu ao chamado “Inverno da IA”, um período de descrença e estagnação.

Ainda assim, essas dificuldades não impediram a consolidação de uma fundamentação teórica que seria a base para os avanços subsequentes.

O ressurgimento do interesse por redes neurais nas décadas de 1980 e 1990 coincidiu com o desenvolvimento de algoritmos mais eficientes, como a retropropagação (Rumelhart; Hinton; Williams, 1986), que viabilizou o treinamento de redes multicamadas. Nesse contexto, técnicas mais sofisticadas, como as redes convolucionais (CNNs) e recorrentes (RNNs), demonstraram grande potencial em tarefas como reconhecimento de imagens e processamento de sequências temporais - componentes críticos para o posterior avanço no Processamento de Linguagem Natural (PLN). A emergência de arquiteturas profundas e o crescimento da capacidade computacional (Zhao et al., 2003) permitiram não só o aumento do número de parâmetros treináveis, mas também a aplicação de redes neurais em ambientes complexos, como a análise textual em larga escala.

A introdução do Transformer por Vaswani et al. (2017) representou um ponto de inflexão na história da IA, ao superar os limites das RNNs e CNNs com um mecanismo de atenção que possibilitou o processamento paralelo e a retenção de contextos distantes em sequências textuais. Essa inovação técnica impulsionou a criação de modelos cada vez maiores, como o BERT (Devlin et al., 2019), o GPT-2 (Radford et al., 2019), o GPT-3 (Brown et al., 2020) e, mais recentemente, o GPT-4 (OpenAI, 2023). Estes modelos incorporam bilhões de parâmetros e podem executar múltiplas tarefas linguísticas com precisão e fluidez, evidenciando um novo patamar de inteligência algorítmica.

Do ponto de vista dos Estudos da Linguagem, os LLMs não se configuram somente como artefatos tecnológicos avançados, mas, em certa medida, como agentes discursivos que reconfiguram as formas de produção, circulação e apropriação do sentido na sociedade contemporânea. Sua atuação sobre grandes volumes de dados textuais e sua capacidade de gerar respostas contextualizadas ao posicionam como instrumentos potencialmente transformadores nos processos de mediação linguística. No entanto, como apontam Bender e Koller (2020), Blodgett et al. (2020), Marcus e Davis (2020) e Ortega-Martín et al. (2023), os LLMs enfrentam desafios estruturais na compreensão de ambiguidades lexicais e sintáticas, apresentam baixa sensibilidade às variações sociolinguísticas e tendem a reproduzir vieses ideológicos presentes nos dados de treinamento.

Mais especificamente, conforme demonstrado por Louwerse (2011), sua limitação em interpretar linguagem figurativa e pragmática evidencia a ausência de uma cognição situacional, elemento central nos processos humanos de produção e compreensão de sentido. Tais limitações se somam aos já reconhecidos desafios estruturais, como o alto custo computacional, os riscos de viés algorítmico (Bender; Gebru et al., 2021) e os dilemas éticos relacionados à privacidade, transparência e responsabilidade social. Assim, uma compreensão crítica e inter/transdisciplinar dos LLMs é imprescindível.

3 Metodologia

O presente estudo segue uma metodologia de revisão sistemática da literatura para apresentar e identificar as abordagens existentes, os desafios e as oportunidades na intersecção entre LLMs e o imaginário literário. A análise abarca publicações acadêmicas entre 2014 e 2024.

Para tanto, o encaminhamento metodológico é composto por etapas que compreendem desde a formulação de uma pergunta estruturada de pesquisa até a análise detalhada dos documentos recuperados, passando por seleção de fontes de dados e triagem dos artigos.

Especificamente, o objetivo é identificar as tendências emergentes que exploram a implementação ou análise do uso de referenciais simbólicos, narrativos e do imaginário literário em LLMs.

3.1 Materiais

A etapa de análise dos artigos e a extração das informações bibliométricas contemplou a utilização das seguintes ferramentas que usam inteligência artificial:

  • Zotero (v.7.0.15): organização de referências, remoção de duplicatas e exportação em BibTeX;

  • OpenAlex: extração de metadados (palavras-chave, citações, ano, periódico);

  • Rayyan: remoção complementar de duplicatas e triagem dos artigos;

  • Biblioshiny: análise bibliométrica exploratória;

  • NotebookLM: leitura e análise de PDFs;

  • SciSpace (versão paga): análise automatizada do texto completo;

  • Litmaps: visualização de redes de citações;

  • ChatGPT (versão paga): apoio à análise de conteúdo e identificação de tendências.

A opção pela utilização destas ferramentas neste estudo se justifica na contribuição ao processo de organização e construção do conhecimento, também por critérios técnicos de desempenho. Assim, cabe reforçar o papel complementar que desempenhou cada ferramenta no processo de revisão sistemática.

Ferramentas como Zotero e Rayyan mostraram-se fundamentais na curadoria bibliográfica, garantindo confiabilidade na gestão das fontes e consistência na triagem dos artigos. O ChatGPT foi utilizado como assistente para a identificação de padrões conceituais e na estruturação temática dos resultados. Já NotebookLM e SciSpace deram suporte à extração contextualizada de informações como, por exemplo, LLMs e datasets utilizados, por permitirem a leitura e análise dos textos completos.

Portanto, cada uma dessas ferramentas contribuiu para o rigor metodológico da pesquisa, assegurando a coerência interpretativa dos resultados. As próximas seções detalham o uso dessas ferramentas nas diversas etapas da pesquisa.

3.2 Estratégia de pesquisa

Para a estratégia de busca, foi formulada uma pergunta que orientou toda a revisão sistemática. Utilizou-se o framework SPICE, desenvolvido para pesquisas em ciências sociais aplicadas.

O SPICE constitui um mnemônico proposto por Booth (2006) como adaptação do framework PICO (Crumley; Koufogiannakis, 2002), voltado especialmente para áreas como biblioteconomia e outras ciências sociais. A aplicação deste framework na formulação da pergunta está detalhada na Tabela 1.

Tabela 1
Definição da pergunta estrutura de pesquisa com framework SPICE.

A partir da pergunta estruturada, desenvolveu-se a estratégia de busca com descritores que abrangem tanto os LLMs quanto os principais conceitos relacionados ao imaginário literário. A escolha dos termos visou garantir a recuperação de estudos relevantes e alinhados à pergunta de pesquisa.

A expressão de pesquisa utilizada foi: “(“large language models” OR llm OR llms OR “modelos de linguagem grandes” OR “modelos de linguagem extensos” OR “modelos de linguagem de grande porte”) AND (imagination OR imaginação OR symbolism OR simbolismo OR symbol OR símbolo OR poetics OR poética OR literature OR literatura OR poetry OR poesia OR poem OR poema OR imaginary OR imaginário OR symbolic OR simbólico OR metaphor OR metáfora OR metaphorical OR metafórico))”.

Além disso, foram adotados os seguintes parâmetros de filtragem: artigos de acesso aberto publicados entre 2014 e 2024, em inglês, espanhol ou português.

A base OpenAlex foi selecionada como fonte primária desta revisão sistemática por atender aos critérios metodológicos do estudo: acesso aberto, integração de fontes relevantes, exportação em formatos compatíveis com ferramentas como o Biblioshiny e atualização contínua de seus registros. Seu principal diferencial é o uso de inteligência artificial para a desambiguação de autores e instituições, bem como na classificação semântica dos artigos por embeddings, ampliando a precisão na organização e análise dos dados. Essas funcionalidades a tornam adequada aos objetivos da pesquisa.

A coleta de dados foi realizada em 30 de abril de 2025, com 2.506 registros recuperados1.

3.3 Critérios de inclusão e exclusão

A definição dos critérios de inclusão e exclusão foi elaborada com base nos objetivos específicos da revisão sistemática, buscando garantir a relevância, a qualidade e a adequação metodológica dos estudos selecionados. A seguir, detalham-se os critérios adotados na Tabela 2:

Tabela 2
Critérios de Inclusão e de Exclusão.

3.4 Fluxo de seleção e análise

A triagem inicial dos estudos utilizou a base OpenAlex, que disponibiliza dados em acesso aberto e estruturado, contemplando publicações de 2014 a 2024. Os dados foram exportados em formato CSV e importados para o gerenciador de referências Zotero. Nessa fase, aplicaram-se rotinas automatizadas de detecção e remoção de registros duplicados e inacessíveis, acelerando o descarte de publicações irrelevantes ou redundantes. Após essa filtragem preliminar, restaram 2.497 artigos únicos.

Em seguida, os registros foram importados para o Rayyan, plataforma especializada em triagem sistemática colaborativa. O sistema detectou 409 possíveis duplicações adicionais. Mediante análise criteriosa, constatou-se que somente 205 registros estavam efetivamente duplicados, sendo removidos do corpus. As demais ocorrências, embora similares, não configuravam duplicidade literal. Ao final dessa etapa, obteve-se um conjunto de 2.292 artigos únicos.

Na fase de screening, analisaram-se os títulos, resumos e palavras-chave dos 2.292 artigos. A análise seguiu abordagem híbrida: com o apoio do ChatGPT combinado com leitura manual por pesquisador do grupo. Em casos duvidosos, aplicou-se um procedimento de blind review conduzido por outro pesquisador, garantindo maior rigor metodológico. Ao término desta etapa, 2.235 publicações foram excluídas, restando 57 consideradas potencialmente elegíveis.

A etapa seguinte consistiu na leitura integral (full-text screening) dos 57 documentos selecionados, reaplicando-se os critérios de inclusão e exclusão. A leitura contou com o suporte das ferramentas SciSpace e NotebookLM, que auxiliaram na extração e organização das informações relevantes. Como resultado, 16 publicações foram excluídas, totalizando 41 selecionadas para análise final.

Os 41 documentos foram analisados em profundidade, com foco nos seguintes aspectos: modelos de LLM utilizados, abordagens narrativas e simbólicas adotadas, objetivos dos estudos, metodologias aplicadas e contribuições identificadas. Os arquivos PDF foram inseridos no Zotero para exportação em formato BibTeX, uma vez que o Rayyan não gera arquivos compatíveis com o Biblioshiny, ferramenta utilizada nas análises bibliométricas. Complementarmente, utilizou-se a ferramenta Litmaps para análise visual de redes de referências e citações.

A análise dos dados seguiu abordagem integrada, contemplando dimensões qualitativas e quantitativas. A dimensão qualitativa concentrou-se na leitura interpretativa dos textos, visando compreender as abordagens adotadas, os desafios relatados e as oportunidades teóricas e aplicadas em torno do uso de LLMs em contextos simbólicos, narrativos e do imaginário literário. A dimensão quantitativa envolveu métricas bibliométricas relacionadas à distribuição temporal das publicações, frequência de ocorrência de determinados modelos de LLM e análise de coocorrência de palavras-chave, permitindo identificar tendências emergentes e lacunas de pesquisa na literatura.

4. Resultados e análise

A Figura 1 a seguir ilustra a evolução temporal da produção acadêmica sobre o uso de LLMs com referenciais do imaginário literário, simbólico ou narrativo no período de 2014 a 2024. A figura revela uma tendência de crescimento exponencial que se inicia apenas em 2022, com um período de ausência de publicações entre 2014 e 2021. Esta lacuna inicial indica que a intersecção entre LLMs e estudos literários/simbólicos é um campo de pesquisa emergente e relativamente recente.

Figura 1
Publicações sobre LLMs com referenciais do imaginário literário, simbólicos ou narrativos no período de 2014 a 2024.

O crescimento expressivo da produção acadêmica sobre LLMs com referenciais do imaginário literário, simbólicos ou narrativos entre 2022 e 2024 (Figura 1) está diretamente relacionado a avanços tecnológicos, à popularização dos modelos e às novas aplicações interdisciplinares.

Em 2022, foram publicados 5 artigos, refletindo o início do interesse acadêmico em explorar as possibilidades dos LLMs para análise simbólica e literária. Esse número ainda representava uma fração pequena da produção total, visto que a tecnologia começava a se consolidar para além das áreas técnicas. Este movimento coincide com o lançamento do ChatGPT pela OpenAI em novembro de 2022, baseado no modelo GPT-3.5. Desde então, o uso de LLMs se tornou amplamente acessível, popularizando aplicações de IA em linguagem natural, inclusive em áreas de humanidades e literatura. Paralelamente, empresas como a Google anunciavam o PaLM, e a DeepMind lançava o Gopher, enquanto a comunidade científica especulava sobre o desempenho do então aguardado GPT-4.

Em 2023, o número de artigos aumentou para 13, indicando que mais pesquisadores passaram a aplicar LLMs em estudos de literatura, simbolismo e imaginário. Isso se deve, em parte, à capacidade desses modelos de analisar grandes volumes de texto e identificar padrões narrativos e simbólicos complexos.

Esse crescimento está atrelado à ampliação das capacidades dos modelos. O lançamento do GPT-4, em março de 2023, trouxe avanços significativos em compreensão contextual, geração de texto e capacidade multimodal. Outros modelos contribuíram também para esse cenário, como LLaMA (Meta), PaLM2 (Google), além de versões open-source que ampliaram as possibilidades de experimentação e personalização, por parte da comunidade acadêmica. A partir disso, observou-se uma tendência crescente de estudos que investigam a convergência entre IA simbólica e conexionista, com LLMs sendo utilizados para raciocínio simbólico e integração com estruturas de conhecimento, como grafos e ontologias.

O ano de 2024 registra o pico da série histórica, concentrando 55% da produção total do período. Este crescimento está associado ao lançamento de modelos como GPT-4o, Gemini 2.0, LLaMA 3.2 e Claude 3.5 Sonnet. Destaca-se também a consolidação dos modelos open-source. Esses avanços permitiram maior experimentação e adaptação para tarefas específicas, incluindo análise simbólica e narrativa em literatura. Além disso, a demanda pela comunidade científica por ferramentas de explicabilidade e pelas discussões sobre viés e ética tornou-se central. Isso é especialmente relevante em áreas sensíveis como literatura, história e ciências humanas, incentivando abordagens metodológicas mais robustas.

A análise bibliométrica, conduzida com o auxílio do Biblioshiny, revelou um total de 142 autores distintos, com uma média de 3,46 autores por documento, indicando uma tendência predominante à produção científica colaborativa no campo investigado. Ainda assim, foram identificados seis artigos de autoria individual, demonstrando haver espaço para contribuições independentes.

No que se refere ao impacto da produção, o corpus analisado apresenta um total de 3.017 referências distribuídas entre 81 fontes, com uma média de 11,28 citações por artigo. O mapa temático da Figura 2, gerado a partir da coocorrência de palavras-chave no Biblioshiny, fornece uma visualização estruturada dos principais eixos conceituais que permeiam a literatura, permitindo observar como os temas se inter-relacionam e evoluem ao longo do período analisado.

Figura 2
Mapeamento temático da literatura por coocorrência de palavras-chave no Biblioshiny.

O mapa temático (Figura 2) classifica os principais temas da literatura sobre LLMs com referenciais simbólicos, narrativos ou do imaginário literário (2014-2024), distribuindo-os em quatro quadrantes conforme seu nível de desenvolvimento (densidade) e relevância (centralidade). Nota-se que o tópico “language models metaphor” sobressai como um tema fundamental e central para a área, embora ainda se encontre em processo de desenvolvimento. No quadrante dos temas motores - centrais e bem desenvolvidos - aparecem “creativity model” e “dataset benchmark inference”, indicando áreas consolidadas e de grande influência na literatura.

Por sua vez, “data augmentation learning” e “creative writing challenge” figuram como nichos especializados: bem desenvolvidos, mas pouco conectados ao núcleo central da área. Já “interpretation” e “framework” aparecem como temas emergentes ou em declínio, com baixa centralidade e desenvolvimento. Finalmente, “generation LLM-based” posiciona-se próximo ao eixo central, sugerindo relevância moderada, porém ainda em fase de consolidação.

A Figura 3 apresenta os resultados obtidos via Litmaps, que evidenciam a organização dos artigos científicos segundo seu número de citações. O Litmaps (Literature Map) constitui recurso visual interativo que representa a literatura acadêmica por meio de nós (artigos) e conexões que expressam relações conceituais, temáticas ou de citação entre os documentos.

Figura 3
Artigos ordenados por ordem de citação no Litmaps.

A análise do mapa revela que, entre os dez artigos mais citados, há predomínio de pesquisadores vinculados a instituições dos Estados Unidos (três artigos) e da China (dois artigos), indicando a centralidade desses países na produção científica de maior impacto sobre o tema investigado. Destaca-se, ainda, a presença de autores oriundos da Austrália, Espanha, Coreia do Sul, Itália e Índia entre as demais publicações altamente citadas, evidenciando a disseminação e o interesse global pela temática, transcendente a contextos nacionais específicos.

Cabe ressaltar que dentre os 41 artigos analisados, não foi identificado nenhum autor brasileiro ou vinculado a instituições brasileiras.

A análise bibliométrica realizada com o Litmaps revelou que “Putting GPT-3’s Creativity to the (Alternative Uses) Test” (Stevenson et al., 2022) ocupa uma posição central na rede de cocitações dos 41 documentos selecionados para esta revisão sistemática. Sua relevância se evidencia tanto pelo número de conexões estabelecidas quanto pelo grau de influência em publicações subsequentes (Figura 3).

Entre os documentos relacionados, destacam-se duas publicações de Giorgio Franceschelli e Mirco Musolesi: “On the Creativity of Large Language Models” (2024) e “Creativity and Machine Learning: A Survey” (2021). Ambos os artigos contribuem para a delimitação do campo de estudos sobre criatividade computacional, sendo frequentemente cocitados com o trabalho de Stevenson et al. (2022).

A primeira publicação analisa se modelos como o GPT-3 podem gerar respostas criativas e inovadoras que resolvam problemas de forma eficaz, indo além da mera reprodução de padrões existentes. A segunda constitui uma revisão abrangente da intersecção entre aprendizado de máquina e criatividade, abordando desde fundamentos teóricos até aplicações práticas e implicações sociais.

O trabalho de Stevenson et al. (2022) concentrou-se em testar a capacidade criativa do GPT-3 em comparação com seres humanos, usando o Teste de Usos Alternativos de Guilford (AUT) - um método clássico para medir criatividade. Os pesquisadores compararam as respostas geradas pelo GPT-3 com as de humanos (estudantes de psicologia) considerando quatro dimensões: originalidade, utilidade, surpresa e flexibilidade.

Os resultados evidenciam que, embora o GPT-3 produza respostas consideradas mais úteis, às respostas humanas foram atribuídas maior originalidade, surpresa e flexibilidade. O estudo também empregou uma métrica automatizada baseada na distância semântica para avaliar a criatividade. Apesar de o GPT-3 ainda apresentar desempenho inferior aos humanos na maioria dos aspectos, os pesquisadores acreditam que melhorias futuras poderão superar essas limitações.

O trabalho discute o que essas diferenças revelam sobre a criatividade humana em comparação à inteligência artificial, levantando reflexões sobre como definir e mensurar criatividade na atualidade.

A Figura 4, gerada pelo Litmaps, ilustra visualmente essas conexões, demonstrando como o artigo de Stevenson et al. (2022) articula-se com uma produção científica recente.

Figura 4
Mapa de cocitações do artigo “Putting GPT-3’s Creativity to the (Alternative Uses) Test” (Stevenson et al., 2022), gerado com Litmaps.

A análise estruturada realizada via SciSpace possibilitou identificar os LLMs mencionados nos 41 artigos selecionados para esta revisão. A extração automatizada das ocorrências revelou a diversidade de arquiteturas e abordagens empregadas nas pesquisas recentes. Dentre os LLMs identificados estão: ALBERT, Alpaca, BART, BERT, Bard, Bing Chat, ChatGPT, Chinese Tiny LLM, Claude-1.2, Claude-3.5, CodeBERT, CroSloEngual BERT (CSE BERT), DeBERTa, DeBERTa-V3, DialoGPT-medium, Dolly 2.0, Gemma-2, GPT-2, GPT-3, GPT-3.5, GPT-4, GPT-4V, GPT-4o, GPT-Neo, GPT-NeoX, GPT4All-J, Koala, LLaMA, LLaMA 2, LLaMA 3, LLaMA 3.1, LLaVA, MAP-NEO, MOSS, OPT, OpenAssistant, PaLM, Qwen2, Qwen2-plus, RoBERTa, SBERT_MiniLM, SBERT_mpnet, SimCSE, SloBERTa, StableLM, T5, UnifiedQA, Vicuna, XLM-R, Yi-1.5, mBERTBASE e mT5. Essa variedade reflete o ecossistema dinâmico de desenvolvimento e aplicação dos LLMs nos últimos anos.

A Figura 5 apresenta os 10 modelos mais utilizados nas publicações analisadas, indicando tendências de adoção e preferência no cenário acadêmico contemporâneo.

Figura 5
Top 10 LLMs mais utilizados nos artigos analisados.

A análise dos dados extraídos da revisão sistemática demonstra amplo uso de modelos da família GPT. O GPT-4 aparece como o modelo mais recorrente, utilizado em 14 dos 41 artigos analisados (34,1%), seguido pelo GPT-3.5, presente em 11 publicações (26,8%). A soma dessas duas versões representa mais da metade dos usos identificados, sinalizando uma preferência clara da comunidade científica por arquiteturas de última geração, capazes de oferecer maior acurácia e sofisticação na geração e análise de linguagem natural.

Outros modelos da mesma família também se destacam: GPT-3 (6 menções), GPT-2 (5) e, mais recentemente, o GPT-4o (3), indicando tanto a longevidade quanto a atualização contínua da família GPT no ecossistema acadêmico. A escolha frequente por esses modelos pode ser atribuída à sua ampla documentação, acessibilidade via APIs comerciais (como OpenAI), e à sua robustez para tarefas abertas e não estruturadas - características especialmente relevantes para estudos que envolvem narrativas, metáforas e estruturas discursivas complexas.

Modelos alternativos também aparecem entre os mais utilizados, como LLaMA 2 (6 menções), RoBERTa (4), OPT (3), T5 (3) e LLaMA (2). Essa presença diversificada sugere o surgimento de um segundo grupo de modelos com características técnicas distintas, muitas vezes voltados a tarefas mais específicas ou com maior abertura para customização - aspecto fundamental para pesquisadores que atuam com perspectivas metodológicas exploratórias ou críticas, como a análise hermenêutica ou estruturalismo narrativo.

Entre os 41 artigos analisados, destacam-se alguns trabalhos pela relevância e impacto nos avanços do uso de LLMs em criatividade, interpretação figurativa e explicabilidade:

  • “On the creativity of large language models” (Franceschelli; Musolesi, 2024) se sobressai ao discutir, sob a ótica das teorias de Margaret Boden, os desafios e oportunidades da criatividade em LLMs, abordando tanto aspectos filosóficos quanto éticos e sociais do uso dessas ferramentas em escrita criativa e seu impacto nas indústrias culturais.

  • “A Confederacy of Models: a Comprehensive Evaluation of LLMs on Creative Writing” (Gómez-Rodríguez; Williams, 2023) é outro destaque, ao realizar uma avaliação comparativa robusta entre múltiplos LLMs e escritores humanos, analisando, critérios como imaginação, coerência, estilo e originalidade, e evidenciando as limitações dos modelos em humor e criatividade genuína.

  • No campo da compreensão figurativa, “Large Language Model Displays Emergent Ability to Interpret Novel Literary Metaphors” (Ichien; Stamenković; Holyoak, 2023) evidencia a capacidade emergente do GPT-4 em interpretar metáforas literárias, superando modelos anteriores. Por sua vez, “Symbolic and Language Agnostic Large Language Models” (Saba, 2023a) e “Stochastic LLMs do not Understand Language” (Saba, 2023b) são relevantes por questionarem as limitações subsimbólicas dos LLMs e proporem caminhos para modelos mais explicáveis e ontologicamente fundamentados.

  • Finalmente, “Metaphorian: Leveraging Large Language Models to Support Extended Metaphor Creation for Science Writing” (Kim et al., 2023) e “LLM-based multi-agent poetry generation in non-cooperative environments” (Zhang; Eger, 2024) ilustram aplicações inovadoras dos LLMs na geração criativa, seja para metáforas científicas ou poesia, demonstrando avanços metodológicos e resultados superiores em diversidade e originalidade.

A Figura 6 sintetiza a distribuição temática identificada nos 41 artigos analisados, refletindo a frequência com que determinadas categorias emergem na literatura científica recente. Cada eixo do gráfico representa uma dimensão temática associada ao uso de linguagem figurada, criatividade, analogias, metáforas e raciocínio pragmático em contextos envolvendo LLMs.

Figura 6
Distribuição temática dos estudos sobre linguagem figurada, criatividade e raciocínio pragmático em LLMs (2014-2024).

A análise evidencia uma concentração significativa de estudos em torno da escrita criativa (11 artigos), seguida por investigações voltadas à detecção, geração e compreensão de metáforas (10 artigos), bem como à compreensão de linguagem figurada de maneira mais ampla (8 artigos). Esses achados sugerem que o campo tem direcionado seus esforços para temas vinculados à criatividade textual e ao tratamento computacional de metáforas.

Em contraste, tópicos como inferência simbólica, geração e resolução de analogias, além da problematização de limitações semânticas, coerência e outros aspectos relacionados, aparecem com baixa representatividade (entre 1 e 2 artigos). Tal distribuição indica uma lacuna nas investigações sobre processos inferenciais e estruturas simbólicas mais complexas, o que pode apontar para oportunidades futuras de pesquisa nesse domínio.

A Tabela 3 apresenta os principais objetivos identificados nos 41 artigos analisados. Algumas publicações abordam múltiplos objetivos, mas são categorizadas conforme o foco principal declarado por seus autores.

Tabela 3
Análise cruzada dos objetivos dos 41 artigos sobre LLMs: correlações, frequências e destaques (2014-2024).

Os objetivos foram agrupados em grandes correlações temáticas, com indicação do número de artigos, percentual em relação ao total e destaques qualitativos. Essas características refletem tendências e lacunas observadas, como a busca por uma maior explicabilidade e criatividade nos LLMs.

A análise das correlações temáticas nos 41 artigos selecionados permite identificar não apenas os objetivos recorrentes, mas também os principais desafios metodológicos, contribuições epistemológicas e possibilidades futuras no campo de estudo que articula LLMs com referenciais simbólicos, narrativos e do imaginário literário.

As abordagens identificadas demonstram um predomínio de investigações experimentais e comparativas, centradas na interpretação e geração de linguagem figurada. As técnicas mais comuns envolvem fine-tuning de modelos pré-treinados, uso de prompt engineering e integração de ferramentas semânticas externas (como ontologias e embeddings especializados).

Os estudos indicam que, apesar dos avanços significativos dos modelos, sua capacidade simbólica ainda é dependente da curadoria humana, seja na criação de prompts ou na avaliação dos resultados. As categorias de detecção de metáforas e geração criativa destacam um interesse em investigar os limites criativos dos LLMs, posicionando-os como agentes discursivos aptos a atuar em ambientes tradicionalmente humanos.

Entre os principais desafios destacam-se: interpretabilidade e explicabilidade limitada em raciocínio simbólico complexo; transparência insuficiente em processos decisórios, especialmente em contextos ambíguos; fragilidade cultural na detecção de nuances contextuais; datasets inadequados para diversidade semântica humana; e ausência de protocolos unificados para avaliação da criatividade computacional. Apesar das limitações, há diversas oportunidades promissoras: modelos híbridos simbólicos-conexionistas; aplicações educacionais para alfabetização crítica em IA; geração literária especializada por gêneros específicos; e métricas interdisciplinares baseadas em linguística, semiótica e estética.

Por fim, observam-se algumas lacunas relevantes: predominância de estudos em inglês e em contextos europeus e norte-americanos, a ausência de análises da evolução dos LLMs, e a desconexão teórica entre produção técnica e as ciências humanas.

5 Conclusão

Esta revisão sistemática permitiu mapear e analisar criticamente as abordagens, desafios e oportunidades identificadas na literatura acadêmica (2014-2024) sobre o uso de Grandes Modelos de Linguagem (LLMs) associados a referenciais simbólicos, narrativos e do imaginário literário. Os 41 artigos selecionados revelam um campo em consolidação, marcado por tensões entre os avanços técnicos e as limitações interpretativas dos modelos de linguagem quando aplicados em domínios complexos de significação.

Do ponto de vista das abordagens, constatou-se predominância de estudos voltados à geração criativa de textos e à detecção de linguagem figurada, em especial metáforas. A presença crescente de experimentos com técnicas híbridas - que combinam estruturas simbólicas e subsimbólicas - reforça o reconhecimento das limitações semânticas dos modelos puramente conexionistas. Ainda assim, observa-se que os LLMs têm possibilitado experimentações relevantes no campo da criatividade computacional, com contribuições não apenas técnicas, mas também epistemológicas.

Os principais desafios enfrentados referem-se à baixa interpretabilidade dos modelos, à dificuldade na captura de contextos culturais e ao déficit de transparência nos processos de raciocínio linguístico. Em muitos casos, os estudos evidenciam que a mediação humana permanece indispensável, seja na curadoria de entradas, seja na validação dos outputs gerados. Há também carência de metodologias avaliativas que articulem critérios quantitativos e qualitativos de forma robusta, especialmente no que se refere à criatividade textual.

A geração literária automatizada, quando pensada como ferramenta complementar e não substitutiva, pode apoiar práticas criativas, editoriais e didáticas. Além disso, a articulação entre modelos simbólicos e conexionistas desponta como agenda promissora para o futuro dos estudos de linguagem e cognição computacional.

Entre as lacunas observadas, destaca-se a baixa representatividade de idiomas e contextos culturais não hegemônicos, limitando a aplicabilidade global dos achados. Da mesma forma, nota-se uma distância teórica entre os aportes das ciências humanas - especialmente da filosofia da linguagem, da semiótica e da teoria literária - e os estudos mais técnicos sobre LLMs, comprometendo a densidade crítica de parte da produção analisada.

Como encaminhamento, recomenda-se que pesquisas futuras:

  • Diversifiquem contextos geográficos e linguísticos;

  • Desenvolvam protocolos avaliativos unificados;

  • Integrem abordagens técnicas e humanísticas;

  • Implementem métricas interdisciplinares robustas;

  • Promovam modelos híbridos explicáveis.

Assim, os resultados desta revisão contribuem para compreender os rumos da pesquisa sobre LLMs aplicados ao imaginário literário e referenciais simbólicos, apontando tanto seus limites atuais quanto os caminhos possíveis para uma inteligência artificial mais interpretável, ética e culturalmente contextualizada.

Financiamento

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES).

Referências

  • ALKAISSI, H.; MCFARLANE, S.I. Artificial Hallucinations in ChatGPT: Implications in Scientific Writing. Cureus, v. 15, n. 2, p. 1-4, 2023. DOI: 10.7759/cureus.34830. Disponível em: Disponível em: https://pubmed.ncbi.nlm.nih.gov/36811129/ Acesso em: 13 mar. 2025.
    » https://doi.org/10.7759/cureus.34830» https://pubmed.ncbi.nlm.nih.gov/36811129/
  • BAGNO, Marcos. Preconceito linguístico: o que é, como se faz. 56. ed. São Paulo: Loyola, 2011.
  • BAKHTIN, Mikhail. Marxismo e Filosofia da Linguagem. 8. ed. São Paulo: Hucitec, 1997.
  • BAKHTIN, Mikhail. Estética da criação verbal. 4. ed. São Paulo: Martins Fontes, 2003.
  • BENDER, Emily M.; GEBRU, Timnit; MCMILLAN-MAJOR, Angelina; SHMITCHELL, Shmargaret. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? In: PROCEEDINGS of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FACCT’21). New York: Acm, 2021. p. 610-623. DOI: 10.1145/3442188.3445922.
    » https://doi.org/10.1145/3442188.3445922
  • BENDER, Emily M.; KOLLER, Alexander. Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data. In: PROCEEDINGS of the 58th Annual Meeting of the Association for Computational Linguistics. Online: Association for Computational Linguistics, 2020. p. 5185-5198. Disponível em: Disponível em: https://aclanthology.org/2020.acl-main.463 Acesso em: 27 jun. 2025.
    » https://aclanthology.org/2020.acl-main.463
  • BLODGETT, S. L.; BAROCAS, S.; DAUMÉ III, H.; WALLACH, H. M. Language (technology) is power: a critical survey of “bias” in NLP. In: PROCEEDINGS of the 58th Annual Meeting of the Association for Computational Linguistics. Online: Association for Computational Linguistics, 2020. p. 5454-5476. Disponível em: Disponível em: https://aclanthology.org/2020.acl-main.485 Acesso em: 27 jun. 2025.
    » https://aclanthology.org/2020.acl-main.485
  • BOOTH, Andrew. Clear and present questions: formulating questions for evidence-based practice. Library Hi Tech, v. 24, n. 3, p. 355-368, 2006. DOI: 10.1108/07378830610692127.
    » https://doi.org/10.1108/07378830610692127
  • BRONCKART, Jean-Paul. Atividade de linguagem, textos e discursos: por um interacionismo sócio-discursivo. São Paulo: Educ, 1999.
  • BROWN, Tom B.; MANN, Benjamin; RYDER, Nick; SUBBIAH, Melanie; KAPLAN, Jared; DHARIWAL, Prafulla; NEELAKANTAN, Arvind; SHYAM, Pranav; SASTRY, Girish; ASKELL, Amanda; AGARWAL, Sandhini; HERBERT-VOSS, Ariel; KRUEGER, Gretchen; HENIGHAN, Tom; CHILD, Rewon; RAMESH, Aditya; ZIEGLER, Daniel M.; WU, Jeffrey; WINTER, Clemens; HESSE, Christopher; CHEN, Mark; SIGLER, Eric; LITWIN, Mateusz; GRAY, Scott; CHESS, Benjamin; CLARK, Jack; BERNER, Christopher; MCCANDLISH, Sam; RADFORD, Alec; SUTSKEVER, Ilya; AMODEI, Dario. Language Models are Few-Shot Learners. [S. l.: s. n.], 2020. arXiv preprint arXiv: 2005.14165. DOI: 10.48550/arXiv.2005.14165.
    » https://doi.org/10.48550/arXiv.2005.14165
  • CHANG, K. K.; CRAMER, M.; SONI, S.; BAMMAN, D. Speak, memory: An archaeology of books known to chatgpt/gpt-4. [S. l.: s. n.], 2023. arXiv preprint arXiv: 2305.00118. Disponível em: Disponível em: https://arxiv.org/abs/2305.00118 Acesso em: 30 maio 2025.
    » https://arxiv.org/abs/2305.00118
  • CRUMLEY, Ellen; KOUFOGIANNAKIS, Denise. Developing evidence-based librarianship: practical steps for implementation. Health Information and Libraries Journal, v. 19, n. 2, p. 61-70, 2002. DOI: 10.1046/j.1471-1842.2002.00372.x.
    » https://doi.org/10.1046/j.1471-1842.2002.00372.x
  • DEVLIN, Jacob; CHANG, Ming-Wei; LEE, Kenton; TOUTANOVA, Kristina. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. [S. l.: s. n.], 2019. arXiv preprint arXiv: 1810.04805. DOI: 10.48550/arXiv.1810.04805.
    » https://doi.org/10.48550/arXiv.1810.04805
  • DOLZ, Joaquim; SCHNEUWLY, Bernard. Gêneros orais e escritos na escola. Campinas: Mercado de Letras, 2004.
  • FRANCESCHELLI, G.; MUSOLESI, M. Creativity and Machine Learning: A Survey. ACM Computing Surveys, v. 56, n. 11, p. 1-41, 2021. DOI: 10.1145/3664595. Acesso em: 18 maio 2025.
    » https://doi.org/10.1145/3664595
  • FRANCESCHELLI, G.; MUSOLESI, M. On the Creativity of Large Language Models. AI & Society, v. 40, p. 3785-3795, 2024. DOI: 10.1007/s00146-024-02127-3.
    » https://doi.org/10.1007/s00146-024-02127-3
  • GÓMEZ-RODRÍGUEZ, Carlos; WILLIAMS, Paul. A Confederacy of Models: a Comprehensive Evaluation of LLMs on Creative Writing. In: FINDINGS of the Association for Computational Linguistics: EMNLP 2023. Singapore: Association for Computational Linguistics, 2023. p. 14504-14528. Disponível em: Disponível em: https://aclanthology.org/2023.findings-emnlp.966 Acesso em: 18 maio 2025.
    » https://aclanthology.org/2023.findings-emnlp.966
  • HEIDEGGER, Martin. Ser e Tempo. Petrópolis: Vozes, 2012.
  • HUSSERL, Edmund. Investigações Lógicas. São Paulo: Abril Cultural, 1975.
  • ICHIEN, Nicholas; STAMENKOVIĆ, Dušan; HOLYOAK, Keith J. Large Language Model Displays Emergent Ability to Interpret Novel Literary Metaphors. [S. l.: s. n.], 2023. arXiv preprint arXiv: 2308.01497. Disponível em: Disponível em: https://arxiv.org/abs/2308.01497 Acesso em: 30 jun. 2025.
    » https://arxiv.org/abs/2308.01497
  • JAKOBSON, Roman. Linguística e comunicação. São Paulo: Cultrix, 1976.
  • JOVANOVIC, M.; CAMPBELL, M. Generative Artificial Intelligence: Trends and Prospects. Computer, v. 55, n. 10, p. 107-112, 2022. DOI: 10.1109/mc.2022.3192720.
    » https://doi.org/10.1109/mc.2022.3192720
  • JURAFSKY, Daniel; MARTIN, James H. Speech and Language Processing: An Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition. 3. ed. Upper Saddle River, NJ, USA: Prentice-Hall, Inc., 2023. Disponível em: Disponível em: https://web.stanford.edu/~jurafsky/slp3/ed3book_jan72023.pdf Acesso em: 30 abr. 2025.
    » https://web.stanford.edu/~jurafsky/slp3/ed3book_jan72023.pdf
  • KAUFMAN, D. Desmistificando a inteligência artificial. Belo Horizonte: Autêntica, 2022.
  • KIM, Jeongyeon; SUH, Sangho; CHILTON, Lydia B.; XIA, Haijun. Metaphorian: Leveraging Large Language Models to Support Extended Metaphor Creation for Science Writing. In: PROCEEDINGS of the ACM Conference on Designing Interactive Systems (DIS’23). [S. l.: s. n.], 2023. Disponível em: Disponível em: https://hci.ucsd.edu/papers/metaphorian.pdf Acesso em: 30 jun. 2025.
    » https://hci.ucsd.edu/papers/metaphorian.pdf
  • LABOV, William. Sociolinguística. 6. ed. São Paulo: Parábola Editorial, 2008.
  • LOUWERSE, Max M. Symbol Interdependency in Symbolic and Embodied Cognition. Topics in Cognitive Science, v. 3, n. 2, p. 273-302, 2011. DOI: 10.1111/j.1756-8765.2010.01106.x.
    » https://doi.org/10.1111/j.1756-8765.2010.01106.x
  • MARCUS, Gary; DAVIS, Ernest. Rebooting AI: Building Artificial Intelligence We Can Trust. New York: Pantheon Books, 2020.
  • MARCUSCHI, Luiz Antônio. Gêneros textuais: definição e funcionalidade. In: MARCUSCHI, Luiz Antônio; DIONÍSIO, Ángela Paiva (ed.). Gêneros textuais e ensino. Rio de Janeiro: Lucerna, 2007.
  • MCCULLOCH, W. S.; PITTS, W. A Logical Calculus of the Ideas Immanent in Nervous Activity. Bulletin of Mathematical Biophysics, v. 52, n. 1/2, p. 99-115, 1990. Reprinted from Bulletin of Mathematical Biophysics, v. 5, p. 115-133, 1943. Disponível em: Disponível em: https://www.cs.cmu.edu/~epxing/Class/10715/reading/McCulloch.and.Pitts.pdf Acesso em: 30 abr. 2025.
    » https://www.cs.cmu.edu/~epxing/Class/10715/reading/McCulloch.and.Pitts.pdf
  • MERLEAU-PONTY, Maurice. Fenomenologia da Percepção. São Paulo: Martins Fontes, 1999.
  • MINSKY, Marvin; PAPERT, Seymour A. Perceptrons: An Introduction to Computational Geometry. Electronic reissue. Cambridge, MA: MIT Press, 2017. DOI: 10.7551/mitpress/11301.001.0001.
    » https://doi.org/10.7551/mitpress/11301.001.0001
  • OPENAI. GPT-4 Technical Report. [S. l.: s. n.], 2023. arXiv preprint arXiv: 2303.08774. Disponível em: Disponível em: https://arxiv.org/abs/2303.08774 Acesso em: 30 jun. 2025.
    » https://arxiv.org/abs/2303.08774
  • ORTEGA-MARTÍN, Miguel; GARCÍA-SIERRA, Óscar; ARDOIZ, Alfonso; ÁLVAREZ, Jorge; ARMENTEROS, Juan Carlos; ALONSO, Adrián. Linguistic ambiguity analysis in ChatGPT. [S. l.: s. n.], 2023. arXiv preprint arXiv: 2302.06426. DOI: 10.48550/arXiv.2302.06426.
    » https://doi.org/10.48550/arXiv.2302.06426
  • RADFORD, Alec; WU, Jeffrey; CHILD, Rewon; LUAN, David; AMODEI, Dario; SUTSKEVER, Ilya. Language Models are Unsupervised Multitask Learners. [S. l.: s. n.], 2019. OpenAI. Disponível em: Disponível em: https://cdn.openai.com/better-language-models/language_models_are_unsupervised_multitask_learners.pdf Acesso em: 2 fev. 2025.
    » https://cdn.openai.com/better-language-models/language_models_are_unsupervised_multitask_learners.pdf
  • ROSENBLATT, Frank. The perceptron: A probabilistic model for information storage and organization in the brain. Amercian Psychological Association, v. 65, n. 6, p. 386-408, 1958. Disponível em: Disponível em: https://www.ling.upenn.edu/courses/cogs501/Rosenblatt1958.pdf Acesso em: 22 abr. 2025.
    » https://www.ling.upenn.edu/courses/cogs501/Rosenblatt1958.pdf
  • RUMELHART, David E.; HINTON, Geoffrey E.; WILLIAMS, Ronald J. Learning representations by back-propagating errors. Nature, v. 323, n. 6088, p. 533-536, 1986. DOI: 10.1038/323533a0. Acesso em: 14 jun. 2025.
    » https://doi.org/10.1038/323533a0
  • SABA, Walid S. Stochastic LLMs do not Understand Language: Towards Symbolic, Explainable and Ontologically Based LLMs. [S. l.: s. n.], 2023. arXiv preprint arXiv: 2309.05918. Disponível em: Disponível em: https://arxiv.org/abs/2309.05918 Acesso em: 30 jun. 2025.
    » https://arxiv.org/abs/2309.05918
  • SABA, Walid S. Symbolic and Language Agnostic Large Language Models. [S. l.: s. n.], 2023. arXiv preprint arXiv: 2308.14199. Disponível em: Disponível em: https://arxiv.org/abs/2308.14199 Acesso em: 30 jun. 2025.
    » https://arxiv.org/abs/2308.14199
  • SANTO, Eniel do Espírito; ROSA, Flavia Goulart Mota Garcia; SILVA, Camila Bezerra da; BORDAS, Miguel Angel Garcia. Um Mosaico de Ideias sobre A Inteligência Artificial Generativa no Contexto da Educação. In: ALVES, Lynn (ed.). Inteligência artificial e educação: refletindo sobre os desafios contemporâneos. Salvador; Feira de Santana: EDUFBA; UEFS Editora, 2023. p. 51-70.
  • SAUSSURE, Ferdinand de. Curso de linguística geral. São Paulo: Cultrix, 1999.
  • STEVENSON, Catrine; SMAL, I.; BAAS, Maartje; GRASMAN, R.; MAAS, Han van der. Putting GPT-3’s Creativity to the (Alternative Uses) Test. In: INTERNATIONAL Conference on Computational Creativity (ICCC) 2022. [S. l.: s. n.], 2022. Disponível em: Disponível em: https://arxiv.org/abs/2206.08932 Acesso em: 30 jun. 2025.
    » https://arxiv.org/abs/2206.08932
  • VASWANI, Ashish; SHAZEER, Noam; PARMAR, Niki; USZKOREIT, Jakob; JONES, Llion; GOMEZ, Aidan N.; KAISER, Łukasz; POLOSUKHIN, Illia. Attention Is All You Need. In: ADVANCES in Neural Information Processing Systems 30 (NeurIPS 2017). [S. l.: s. n.], 2017. DOI: 10.48550/arXiv.1706.03762.
    » https://doi.org/10.48550/arXiv.1706.03762
  • ZHANG, Ran; EGER, Steffen. LLM-based multi-agent poetry generation in non-cooperative environments. [S. l.: s. n.], 2024. arXiv preprint arXiv: 2409.03659. Disponível em: Disponível em: https://arxiv.org/abs/2409.03659 Acesso em: 30 jun. 2025.
    » https://arxiv.org/abs/2409.03659
  • ZHAO, W.; CHELLAPPA, R.; PHILLIPS, P. J.; ROSENFELD, A. Face Recognition: A Literature Survey. ACM Computing Surveys, v. 35, n. 4, p. 399-458, 2003. DOI: 10.1145/954339.954342.
    » https://doi.org/10.1145/954339.954342

Disponibilização de dados

Os dados de pesquisa estão disponíveis em repositório.

Editado por

  • Editor de layout:
    Saula Cecília.
  • Editor de seção:
    Daniervelin Pereira.

Datas de Publicação

  • Publicação nesta coleção
    03 Nov 2025
  • Data do Fascículo
    2025

Histórico

  • Recebido
    03 Jul 2025
  • Aceito
    26 Ago 2025
  • Publicado
    28 Set 2025
location_on
Universidade Federal de Minas Gerais - UFMG Av. Antônio Carlos, 6627 - Pampulha, Cep: 31270-901, Belo Horizonte - Minas Gerais / Brasil, Tel: +55 (31) 3409-6009 - Belo Horizonte - MG - Brazil
E-mail: revistatextolivre@letras.ufmg.br
rss_feed Acompanhe os números deste periódico no seu leitor de RSS
Reportar erro