Aymen Sekhri
Om
Jeg er doktorgradsstipendiat med en felles tilknytning til Norges teknisk-naturvitenskapelige universitet (NTNU) i Gjøvik og Universitetet i Poitiers i Frankrike, hvor jeg arbeider med subjektiv og objektiv kvalitetsvurdering for utvidet virkelighet (Augmented Reality, AR).
Forskningen min ligger i skjæringspunktet mellom kunstig intelligens, datavisjon og utvidet virkelighet, med fokus på å utvikle maskinlæringsmodeller som kan evaluere og forbedre visuelle opplevelser i AR- og VR-miljøer. Under ingeniørstudiene mine arbeidet jeg også med medisinsk bildediagnostikk, noe som styrket interessen min for å anvende AI på virkelige perseptuelle og visuelle utfordringer.
Ved NTNU Colourlab er jeg involvert i utformingen av storskala subjektive AR-eksperimenter og utviklingen av transformer-baserte dyp læringsmodeller for bildekvalitetsvurdering (Image Quality Assessment, IQA). Mine bredere forskningsinteresser inkluderer representasjonslæring, selvovervåket læring og kunstig intelligens for oppslukende medier.
Jeg har publisert forskningsarbeid i IEEE ICIP, ICASSP, MMSP og EUSIPCO, og forventer å fullføre doktorgraden min i oktober 2026.
Utover forskningen verdsetter jeg tverrfaglig samarbeid som knytter sammen kunstig intelligens, menneske-maskin-interaksjon og medisinsk bildediagnostikk.
Kompetanseord
- AgenticAI
- Artificial Intelligent
- Augmented Reality
- Computer Vision
- Data Analysis
- Data Collection
- Data Processing
- Databehandling
- Deep Learning
- Deep learning
- Immersive Media
- Kunstig intelligens
- LLMs
- Machine Learning
- Maskinlæring
- Medical Imaging
- Medical Imaging
- Python
- Pytorch
- Representation Learning
- Research
- Self-Supervised Learning
- Software Engineering
- Store datasystemer
- Utvidet virkelighet
Publikasjoner
[1] A. Sekhri, S. A. Amirshahi, and M.-C. Larabi, “Towards light-weight transformer-based quality assessment metric for augmented reality,” in Proc. IEEE 26th Int. Workshop on Multimedia Signal Processing (MMSP), 2024, pp. 1–6.
[2] A. Sekhri, M.-C. Larabi, and S. A. Amirshahi, “Lightweight image quality prediction guided by perceptual ranking feedback,” in Proc. IEEE Int. Conf. on Acoustics, Speech and Signal Processing (ICASSP), 2025, pp. 1–5.
[3] A. Sekhri, M.-C. Larabi, and S. A. Amirshahi, “ARaBIQA: A novel blind image quality assessment model for augmented reality,” in Proc. IEEE Int. Conf. on Image Processing (ICIP), 2025, pp. 379–384.
[4] A. Sekhri, M. A. Kerkouri, A. Chetouani, M. Tliba, Y. Nasser, R. Jennane, and A. Bruno, “Automatic diagnosis of knee osteoarthritis severity using Swin Transformer,” in Proc. 20th Int. Conf. on Content-Based Multimedia Indexing (CBMI), 2023, pp. 41–47.
[5] A. Sekhri, S. A. Amirshahi, and M.-C. Larabi, “Enhancing content representation for AR image quality assessment using knowledge distillation,” arXiv preprint arXiv:2412.06003, 2024.
[6] M. Tliba, A. Sekhri, M. A. Kerkouri, and A. Chetouani, “Deep-based quality assessment of medical images through domain adaptation,” in Proc. IEEE Int. Conf. on Image Processing (ICIP), 2022, pp. 3692–3696.
[7] A. Sekhri, M. Tliba, M. A. Kerkouri, Y. Nasser, A. Chetouani, A. Bruno, and R. Jennane, “Shifting focus: From global semantics to local prominent features in Swin Transformer for knee osteoarthritis severity assessment,” in Proc. 32nd Eur. Signal Process. Conf. (EUSIPCO), 2024, pp. 1686–1690.
[8] A. Bruno, P. Oza, F. Adedoyin, M. Tliba, M. A. Kerkouri, A. Sekhri, A. Chetouani, and M. Gao, “Do digital images tell the truth?” in Digital Image Security, CRC Press, 2024, pp. 247–265.
2025
-
Sekhri, Aymen;
Larabi, Mohamed Chaker;
Amirshahi, Seyed Ali.
(2025)
Lightweight Image Quality Prediction Guided by Perceptual Ranking Feedback.
Proceedings of the IEEE International Conference on Acoustics, Speech and Signal Processing
Vitenskapelig artikkel
Tidsskriftspublikasjoner
-
Sekhri, Aymen;
Larabi, Mohamed Chaker;
Amirshahi, Seyed Ali.
(2025)
Lightweight Image Quality Prediction Guided by Perceptual Ranking Feedback.
Proceedings of the IEEE International Conference on Acoustics, Speech and Signal Processing
Vitenskapelig artikkel