Dissemin is shutting down on January 1st, 2025

Published in

Techno.Com, 3(21), p. 500-510, 2022

DOI: 10.33633/tc.v21i3.6373

Links

Tools

Export citation

Search in Google Scholar

Perbandingan AlexNet dan VGG untuk Pengenalan Ekspresi Wajah pada Dataset Kelas Komputasi Lanjut

This paper is made freely available by the publisher.
This paper is made freely available by the publisher.

Full text: Download

Question mark in circle
Preprint: policy unknown
Question mark in circle
Postprint: policy unknown
Question mark in circle
Published version: policy unknown

Abstract

Pengenalan emosi memainkan peran penting dalam komunikasi yang dapat dikenali dari ekspresi wajah. Terdapat banyak metode yang dapat digunakan untuk mengenali ekspresi wajah secara automatis, seperti convolutional neural network (CNN). Penelitian ini bertujuan untuk mengimplementasikan dan membandingkan model CNN dengan arsitektur AlexNet dan VGG untuk pengenalan ekspresi wajah menggunakan bahasa pemrograman Julia. Model CNN akan digunakan untuk mengklasifikasikan tiga ekspresi yang berbeda dari tujuh orang pengekspresi. Data diproses dengan beberapa teknik augmentasi data untuk mengatasi masalah keterbatasan data. Hasil penelitian menunjukkan bahwa ketiga arsitektur dapat mengklasifikasikan ekspresi wajah dengan sangat baik, yang ditunjukkan oleh nilai rata-rata akurasi pada data training dan testing yang lebih dari 94%. Untuk memenuhi nilai cross-entropy sebesar 0.1, arsitektur VGG-11 memerlukan jumlah epoch yang paling sedikit dibandingkan arsitektur lainnya, sedangkan arsitektur AlexNet memerlukan waktu komputasi yang paling sedikit. Waktu komputasi pada proses pelatihan sebanding dengan jumlah parameter yang terkandung pada model CNN. Akan tetapi, jumlah epoch yang sedikit belum tentu membutuhkan waktu komputasi yang sedikit. Selain itu, nilai recall, presisi, dan F1-score untuk masalah klasifikasi multi-class menunjukkan hasil yang baik, yaitu lebih dari 94%.