Organisation du code

Il faudrait que notre code soit plus organisé que juste des Google Colab random qu’on a maintenant. L’idée serait de faire un repository github plus structuré à travers le temps.

<aside> ⚠️

Le seul problème est que Google Colab te donne accès à un GPU, mais je sais pas si ceci est possible avec VSCode.

</aside>

Comparaison de modèles

Voici les modèles YOLO pour la détection d’objets.

image.png

Voici les modèles Segment Anything de Meta peut être plus pour détecter la source du feu:

image.png

Après il y a des modèles plus spécifiques, soit celui de YOLO-NAS pour vraiment adapter au hardware en termes de taille du modèle.

Il y a aussi RT-DETR (REaltime DEtection TRansformer) qui pourrait aider à comprendre les relations entre les objets dans la scène (encore une fois plus pour détecter la source du feu).

Finalement, il y a YOLO-World qui peut détecter même des choses qu’il a jamais vu à travers une base de vocabulaire pour décrire ce qu’il voit.

Ceci est un sommaire des modèles offerts par ultralytics, il font non seulement des avancés en AI, mais aussi des librairies de code facile à utiliser.

Github Repository

Nous avons créé un repository et pour l’instant il contient qu’un code pour prédire avec un certain modèle des choses dans des vidéos, des images ou bien la webcam.

Il sera au lien suivant: https://github.com/Dronolab/drono-ai

Plans futurs

Continuer le code pour une structure de code pour le training

Avoir des adresses IP accessibles à travers le vpn de l’ÉTS pour GPU et Jetson.