Please use this identifier to cite or link to this item: http://univ-bejaia.dz/dspace/123456789/27267
Full metadata record
DC FieldValueLanguage
dc.contributor.authorChafik Kernou, Mohamed-
dc.contributor.authorChibane, Adem-
dc.contributor.authorAchroufene, Achour ; promoteur-
dc.date.accessioned2026-05-05T13:00:41Z-
dc.date.available2026-05-05T13:00:41Z-
dc.date.issued2025-
dc.identifier.other004MAS/1479-
dc.identifier.urihttp://univ-bejaia.dz/dspace/123456789/27267-
dc.descriptionOption : Systèmes d’Information Avancéeen_US
dc.description.abstractLa reconnaissance d'activités humaines (HAR) est un domaine de recherche crucial avec des applications dans la surveillance, les soins de santé, le sport et l'interaction homme machine. Ce mémoire explore l'intégration de différentes techniques de vision par ordinateur et d'apprentissage profond, notamment les réseaux convolutifs (CNN), les réseaux récurrents (RNN), les architectures LSTM et les Transformers, dans le but de mieux comprendre et classifier les activités humaines à partir de séquences vidéo. Une étude comparative est menée entre plusieurs architectures modernes telles que LRCN, ConvLSTM et Vision Transformers sur des bases de données standardisées comme UCF50 et PAMAP2. L'objectif est de proposer un cadre performant combinant vision spatiale et dynamique temporelle pour améliorer la précision de la classification. Les résultats montrent que les modèles hybrides qui exploitent à la fois les caractéristiques spatiales et temporelles offrent une meilleure reconnaissance d'activité.en_US
dc.language.isofren_US
dc.publisherUniversité Aberahmane Mira Bejaiaen_US
dc.subjectReconnaissance d'activités humaines (HAR) : Deep Learning : Réseaux de neuronesen_US
dc.titleDéveloppement d'un modèle hybride CNNLSTM pour la reconnaissance des activités humaines.en_US
dc.typeThesisen_US
Appears in Collections:Mémoires de Master

Files in This Item:
File Description SizeFormat 
PFE 2025 Version Finale.pdf3.08 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.