Pesquisadores da Meta abrem a caixa-preta dos LLMs para corrigir raciocínios falhos da IA(Original em inglês)
Pesquisadores da Meta FAIR e da Universidade de Edimburgo desenvolveram a técnica Circuit-based Reasoning Verification (CRV), que visa corrigir o raciocínio de modelos de linguagem. A CRV monitora os 'circuitos de raciocínio' internos de um LLM para detectar erros computacionais e aplicar intervenções corretivas em tempo real, aumentando a confiabilidade das aplicações de IA.
- •A técnica CRV permite monitorar e corrigir erros em modelos de linguagem.
- •Utiliza gráficos computacionais para observar ativações internas do modelo.
- •Pode aumentar a confiabilidade de aplicações de IA em ambientes empresariais.
💡 Por que importa: A técnica CRV é crucial para melhorar a confiabilidade dos modelos de IA, o que é vital para aplicações empresariais onde a precisão é essencial. Isso pode levar a um avanço significativo na confiança em sistemas de IA.