Somos dedicados a expandir as fronteiras da inteligência artificial. Por essa razão, nossa equipe está constantemente envolvida em pesquisas que asseguram o estado da arte em tecnologia para os nossos produtos. Destacamos dois artigos em particular: um sobre o BERTimbau, que descreve como disponibilizamos o modelo BERT para o português; e outro sobre o NeuralSearchX, uma descrição técnica do nosso mecanismo de busca premiado internacionalmente. Confira alguns dos artigos elaborados pela nossa equipe!
INACIA: Integrating Large Language Models in Brazilian Audit Courts: Opportunities and Challenges
Jayr Pereira, Andre Assumpcao, Julio Trecenti, Caio Lente, Jhonatan Cléto, Guilherme Dobins, Rodrigo Nogueira, Luis Mitchell, Roberto Lotufo
BERTimbau: pretrained BERT models for Brazilian Portuguese
Fábio Souza, Rodrigo Nogueira, Roberto Lotufo
NeuralSearchX: Serving a Multi-billion-parameter Reranker for Multilingual Metasearch at a Low Cost
InPars-v2: Large Language Models as Efficient Dataset Generators for Information Retrieval
ExaRanker: Explanation-Augmented Neural Ranker
Visconde: Multi-document QA with GPT-3 and Neural Reranking
No Parameter Left Behind: How Distillation and Model Size Affect Zero-Shot Retrieval
Induced Natural Language Rationales and Interleaved Markup Tokens Enable Extrapolation in Large Language Models
mMARCO: A Multilingual Version of the MS MARCO Passage Ranking Dataset
Billions of Parameters Are Worth More Than In-domain Training Data: A case study in the Legal Case Entailment Task
To Tune or Not To Tune? Zero-shot Models for Legal Case Entailment
Sequence-to-Sequence Models for Extracting Information from Registration and Legal Documents
A cost-benefit analysis of cross-lingual transfer methods
On the ability of monolingual models to learn language-agnostic representations
Vamos conversar via WhastApp?