Artigos

Conheça os artigos de IA produzidos pelo nosso time

Somos dedicados a expandir as fronteiras da inteligência artificial. Por essa razão, nossa equipe está constantemente envolvida em pesquisas que asseguram o estado da arte em tecnologia para os nossos produtos. Destacamos dois artigos em particular: um sobre o BERTimbau, que descreve como disponibilizamos o modelo BERT para o português; e outro sobre o NeuralSearchX, uma descrição técnica do nosso mecanismo de busca premiado internacionalmente. Confira alguns dos artigos elaborados pela nossa equipe!

INACIA: Integrating Large Language Models in Brazilian Audit Courts: Opportunities and Challenges

Jayr Pereira, Andre Assumpcao, Julio Trecenti, Caio Lente, Jhonatan Cléto, Guilherme Dobins, Rodrigo Nogueira, Luis Mitchell, Roberto Lotufo

BERTimbau: pretrained BERT models for Brazilian Portuguese

Fábio Souza, Rodrigo Nogueira, Roberto Lotufo

NeuralSearchX: Serving a Multi-billion-parameter Reranker for Multilingual Metasearch at a Low Cost

InPars-v2: Large Language Models as Efficient Dataset Generators for Information Retrieval

ExaRanker: Explanation-Augmented Neural Ranker

Visconde: Multi-document QA with GPT-3 and Neural Reranking

No Parameter Left Behind: How Distillation and Model Size Affect Zero-Shot Retrieval

Induced Natural Language Rationales and Interleaved Markup Tokens Enable Extrapolation in Large Language Models

mMARCO: A Multilingual Version of the MS MARCO Passage Ranking Dataset

Billions of Parameters Are Worth More Than In-domain Training Data: A case study in the Legal Case Entailment Task

To Tune or Not To Tune? Zero-shot Models for Legal Case Entailment

Sequence-to-Sequence Models for Extracting Information from Registration and Legal Documents

On the ability of monolingual models to learn language-agnostic representations