O que faz um bom tokenizador de fala para LLMs? Estudo sistemático revela arquiteturas ideais e acelera decodificação em 12x
Novo estudo compara tokenizadores coupled, semi-decoupled e decoupled para speech-language models, mostrando que arquite...
8 artigos encontrados
Novo estudo compara tokenizadores coupled, semi-decoupled e decoupled para speech-language models, mostrando que arquite...
Novos benchmarks do GLM-4.7-Flash mostram 4.398 tok/s em H200 com vLLM e 112 tok/s em RTX 6000 Ada usando quantização GG...
Teste prático com 5k itens de memória mostra que embedding search falha em queries temporais e multi-hop, enquanto abord...
STEP3-VL-10B alcança 92.2% no MMBench e 80.11% no MMMU com apenas 10B de parâmetros, superando modelos como GLM-4.6V-106...
Microsoft lança Fara-7B, modelo agentico de 7B parâmetros que navega na web usando apenas screenshots, sem depender de a...
Framework VIGIL introduz protocolo verify-before-commit para proteger agentes LLM contra ataques de injeção em tool stre...
Google apresenta ScreenAI, modelo de 5B parâmetros que combina PaLI com pix2struct para entender interfaces, gráficos e...
O APEX-SWE é um novo benchmark que testa se modelos de IA conseguem executar tarefas reais de engenharia de software, co...
Receba as últimas notícias sobre AI Engineering diretamente no seu email. Sem spam, prometemos.
Ao se inscrever, você concorda com nossa política de privacidade .