Computer Vision Toolbox Model for OpenAI CLIP Network
The Contrastive Learning Image Pre-Training (CLIP) network is a vision language model that can be used for joint image-text classification.
6 téléchargements
Mise à jour
15 oct. 2025
The CLIP network uses contrastive learning to encode image and textual data into a shared feature space for joint classification. Images and text with high similarity will be close in this feature space, and have a high CLIP score. This further enables image search from input text, and text search from an input image.
Compatibilité avec les versions de MATLAB
Créé avec
R2026a
Compatible avec R2026a
Plateformes compatibles
Windows macOS (Apple Silicon) macOS (Intel) LinuxTags
Community Treasure Hunt
Find the treasures in MATLAB Central and discover how the community can help you!
Start Hunting!Découvrir Live Editor
Créez des scripts avec du code, des résultats et du texte formaté dans un même document exécutable.
