Karpathy partilha o fluxo de trabalho para construir uma base de conhecimento pessoal usando LLM: a maior parte dos tokens não é mais gasta a escrever código, mas sim a manipular o conhecimento

BlockBeatNews

De acordo com o acompanhamento da 1M AI News, o cofundador da OpenAI, Andrej Karpathy, partilhou no X uma descoberta recente: construir uma base de conhecimento pessoal com LLM é mais valioso do que usá-la para escrever código. A maior parte do consumo de tokens dele já mudou de escrever código para operar conhecimento.

O fluxo de trabalho completo divide-se em cinco passos:

  1. Aquisição de dados: indexar documentos-fonte como artigos, artigos científicos, repositórios de código, conjuntos de dados, imagens, etc. na pasta raw/ e “compilar” incrementalmente com o LLM para criar um wiki em markdown, incluindo resumo, ligações inversas, classificação por conceitos e interligações entre artigos
  2. Interface de navegação: usar o Obsidian como front-end para visualizar os dados originais, o wiki compilado e visualizações derivadas; o conteúdo do wiki é totalmente mantido pelo LLM, e a pessoa quase não edita diretamente
  3. Consulta por perguntas e respostas: quando o wiki atinge uma certa escala (numa das linhas de investigação dele já há cerca de 100 artigos e 400 mil palavras), pode-se colocar ao LLM perguntas complexas, e o LLM faz a pesquisa no conteúdo do wiki e responde por conta própria. Ele achava que precisava de RAG, mas, com esta escala, os ficheiros de índice e os resumos automaticamente mantidos pelo LLM já são suficientes
  4. Refluxo de resultados: os resultados das consultas são gerados em formato markdown, diapositivos Marp ou gráficos do matplotlib, vistos no Obsidian e depois arquivados de volta no wiki, permitindo que a exploração pessoal continue a acumular-se
  5. Verificação de qualidade: usar LLM de forma regular para fazer um “check-up de saúde” ao wiki, detetar inconsistências de dados, completar informação em falta, explorar relações entre conceitos e melhorar incrementalmente a integridade dos dados

Karpathy diz que desenvolveu também algumas ferramentas adicionais, como um motor de pesquisa simples para wiki: pode ser usado diretamente por ele numa interface web ou entregue ao LLM como ferramenta de linha de comandos para processar consultas maiores. Ele considera que, por enquanto, este fluxo de trabalho ainda é apenas “uma colagem de um conjunto de scripts”, mas por detrás há uma oportunidade de “um produto novo e surpreendente”. A visão mais distante é: para cada pergunta colocada a um modelo de ponta, pode ser enviada uma série de LLM para construir automaticamente um wiki temporário, fazer verificação de qualidade, iterar em várias rondas e, no final, produzir um relatório completo — “muito além de uma única .decode()”.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário