Text Analytics Toolbox Model for BERT-Base Network
Pretrained BERT-Base Network for MATLAB
388 téléchargements
Mise à jour
26 jan. 2026
BERT-Base is a pretrained language model based on Deep Learning Transformer architecture that can be used for a wide variety of Natural Language Processing (NLP) tasks. This model has 12 self-attention layers and a hidden size of 768.
To load a BERT-Base model, run the following code:
[net, tokenizer] = bert(Model="base");
Compatibilité avec les versions de MATLAB
Créé avec
R2023b
Compatible avec les versions R2023b à R2026a
Plateformes compatibles
Windows macOS (Apple Silicon) macOS (Intel) LinuxTags
Découvrir Live Editor
Créez des scripts avec du code, des résultats et du texte formaté dans un même document exécutable.
