Karpathy propõe o método de leitura em três camadas para LLM: o maior valor da IA não está na escrita, mas em ajudar-te a compreenderes o mundo

ChainNewsAbmedia

O antigo diretor-geral de IA da Tesla e membro fundador da OpenAI, Andrej Karpathy, partilhou no X a sua metodologia central para usar modelos de linguagem de grande dimensão (LLM) de forma pessoal: o maior valor de um LLM não é ajudar-te a «omitir a escrita», mas ajudar-te a «elevar a leitura». Ele propõe um processo de leitura em três camadas, posicionando os LLM como um «amplificador de leitura», uma perspetiva que desafia a perceção dominante de que a IA é, sobretudo, um acelerador de escrita.

Método de leitura em três camadas: da fonte ao meta-analise com LLM

O processo de tratamento de informação descrito por Karpathy divide-se em três camadas: a primeira consiste em ler o documento original; a segunda é pedir ao LLM que gere um resumo para captar rapidamente as ideias centrais; a terceira — e a mais importante — é pedir ao LLM para realizar uma «análise meta» (meta-analysis), avaliando quais perspetivas neste documento são «novas» ou «surpreendentes» para o teu próprio sistema de conhecimento existente.

A subtileza deste método está no facto de que ele não substitui o juízo humano pela IA; otimiza, sim, a «alocação da atenção» das pessoas com recurso à IA. Quando, todos os dias, há necessidade de absorver grandes quantidades de informação, a filtragem da novidade na terceira camada consegue ajudar eficazmente os leitores a concentrarem-se no que verdadeiramente merece uma leitura aprofundada.

Por que o «amplificador de leitura» é mais importante do que o «acelerador de escrita»

A maioria das pessoas usa o ChatGPT ou o Claude principalmente para gerar texto — escrever cartas, escrever relatórios, escrever código. A perspetiva de Karpathy é precisamente o contrário: ele considera que o valor dos LLM na entrada (ajudar-te a absorver melhor a informação) é muito maior do que na saída (ajudar-te a produzir texto mais rapidamente).

A lógica por trás disso é a seguinte: no trabalho do conhecimento, a qualidade da decisão depende da qualidade da absorção de informação. Se leres as coisas certas e compreenderes os pontos-chave, a produção acaba por acompanhar naturalmente. Pelo contrário, se apenas aceleras a produção com IA mas a qualidade da entrada não muda, no máximo estás apenas a «produzir conteúdo medíocre mais depressa».

Riscos e pontos cegos: é preciso ter conhecimentos suficientes da área por trás

Este método parte de uma suposição: o utilizador precisa, ele próprio, de ter conhecimentos de domínio suficientes para avaliar se a análise do LLM está correta. Se uma pessoa completamente alheia a blockchain pedir ao LLM para avaliar a «novidade» de um artigo DeFi, é provável que seja induzida em erro por um resumo confiante, mas incorreto, gerado pelo LLM.

Além disso, há também investigadores que defendem uma opinião diferente, argumentando que é a capacidade de escrita dos LLM que constitui o maior aumento de produtividade, e que a assistência à leitura é relativamente secundária. A divergência entre as duas perspetivas reflete, em essência, a diferença de ponderação entre «entrada vs. saída» nos diferentes tipos de trabalho — trabalhos orientados para a investigação necessitam mais de amplificador de leitura, enquanto trabalhos orientados para a execução necessitam mais de acelerador de escrita.

Implicações para quem trabalha com conhecimento

O enquadramento de Karpathy oferece a todos os profissionais que consomem grandes quantidades de informação uma forma prática de usar IA: em vez de deixar que a IA escreva por ti, deixa que a IA te ajude a construir uma linha de processo de «controlo da qualidade da entrada». Concretamente, pode ser assim: todos os dias, usar LLM para analisar mais de 20 artigos da indústria, fazer com que a IA assinale quais perspetivas são novas e, em seguida, tu decidires o que vale a pena para reportagens ou investigação mais aprofundadas. Este método não faz com que se perca o poder de julgamento; pelo contrário, numa era de sobrecarga de informação, permite que a atenção limitada seja aplicada onde realmente importa.

Neste artigo, Karpathy propõe o método de leitura em três camadas para LLM: o maior valor da IA não está na escrita, mas em ajudar-te a compreender o mundo. Apareceu pela primeira vez em Cadeia Notícias ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário