Use APKPure App
Get AI Benchmark old version APK for Android
Votre téléphone est-il prêt pour l'IA ? Exécutez AI Benchmark pour vérifier ses performances !
Génération d'images neuronales, reconnaissance faciale, classification d'images, réponse aux questions...
Votre smartphone est-il capable d'exécuter les derniers réseaux de neurones profonds pour effectuer ces tâches et bien d'autres basées sur l'IA ? Est-ce qu'il a une puce AI dédiée ? Est-ce assez rapide ? Exécutez AI Benchmark pour évaluer professionnellement ses performances IA !
Classement actuel des téléphones : http://ai-benchmark.com/ranking
AI Benchmark mesure la vitesse, la précision, la consommation d’énergie et les besoins en mémoire de plusieurs modèles clés d’IA, de vision par ordinateur et de PNL. Parmi les solutions testées figurent les méthodes de classification d'images et de reconnaissance faciale, les modèles d'IA effectuant la génération d'images et de textes neuronaux, les réseaux de neurones utilisés pour la super-résolution d'image/vidéo et l'amélioration des photos, ainsi que les solutions d'IA utilisées dans les systèmes de conduite autonome et les smartphones pour de vrais. Estimation de la profondeur temporelle et segmentation sémantique des images. La visualisation des sorties des algorithmes permet d’évaluer graphiquement leurs résultats et de connaître l’état actuel de l’art dans divers domaines de l’IA.
Au total, AI Benchmark comprend 83 tests et 30 sections répertoriées ci-dessous :
Section 1. Classification, MobileNet-V3
Section 2. Classification, Création-V3
Section 3. Reconnaissance faciale, Swin Transformer
Section 4. Classification, EfficientNet-B4
Section 5. Classification, MobileViT-V2
Articles 6/7. Exécution de modèles parallèles, 8 x Inception-V3
Section 8. Suivi d'objets, YOLO-V8
Section 9. Reconnaissance optique de caractères, transformateur ViT
Section 10. Segmentation sémantique, DeepLabV3+
Section 11. Segmentation parallèle, 2 x DeepLabV3+
Section 12. Segmentation sémantique, segmenter n'importe quoi
Section 13. Suppression du flou des photos, IMDN
Section 14. Image Super-Résolution, ESRGAN
Section 15. Super-résolution d'image, SRGAN
Section 16. Débruitage d'image, U-Net
Section 17. Estimation de la profondeur, MV3-Profondeur
Section 18. Estimation de la profondeur, MiDaS 3.1
Article 19/20. Amélioration de l'image, DPED
Section 21. Caméra apprise FAI, MicroISP
Section 22. Rendu de l'effet Bokeh, PyNET-V2 Mobile
Section 23. Super-résolution vidéo FullHD, XLSR
Article 24/25. Vidéo 4K super-résolution, VideoSR
Section 26. Réponse aux questions, MobileBERT
Section 27. Génération de texte neuronal, Llama2
Section 28. Génération de texte neuronal, GPT2
Section 29. Génération d'images neuronales, diffusion stable V1.5
Section 30. Limites de mémoire, ResNet
En plus de cela, on peut charger et tester ses propres modèles d'apprentissage en profondeur TensorFlow Lite en mode PRO.
Une description détaillée des tests peut être trouvée ici : http://ai-benchmark.com/tests.html
Remarque : L'accélération matérielle est prise en charge sur tous les SoC mobiles dotés de NPU dédiés et d'accélérateurs d'IA, notamment les chipsets Qualcomm Snapdragon, MediaTek Dimensity/Helio, Google Tensor, HiSilicon Kirin, Samsung Exynos et UNISOC Tiger. À partir d'AI Benchmark v4, on peut également activer l'accélération de l'IA basée sur GPU sur les appareils plus anciens dans les paramètres ("Accélération" -> "Activer l'accélération GPU" / "Arm NN", OpenGL ES-3.0+ est requis).
Telechargé par
Carlos Oliveira
Nécessite Android
Android 5.0+
Catégories
Signaler
Last updated on Sep 26, 2024
1. New tasks and models: Vision Transformer (ViT) architectures, Large Language Models (LLMs), Stable Diffusion network, etc.
2. Added tests checking the performance of quantized INT16 inference.
3. LiteRT (TFLite) runtime updated to version 2.17.
4. Updated Qualcomm QNN, MediaTek Neuron, TFLite NNAPI, GPU and Hexagon NN delegates.
5. Added Arm NN delegate for AI inference acceleration on Mali GPUs.
6. The total number of tests increased to 83.