Implementasi Algoritma Deep Artificial Neural Network Menggunakan Mel Frequency Cepstrum Coefficient Untuk Klasifikasi Audio Emosi Manusia
Kata Kunci:
Deep Learning, Classification, ANN, MFCC, Toronto Emotion Speech Set DataAbstrak
Emosi merupakan keadaan yang dirasakan pada setiap individu dalam intensitas yang tinggi terhadap sesuatu hal. Emosi sulit dipahami dan sulit diukur secara kuantitatif. Emosi dapat tercermin dalam ekspresi wajah dan nada suara. Suara mengandung sifat fisik yang unik untuk setiap pembicara. Setiap orang memiliki warna nada, tempo, dan ritme yang berbeda. Oleh karena itu, Identifikasi emosi manusia berguna dalam bidang interaksi manusia dan komputer. Ini membantu mengembangkan antarmuka perangkat lunak yang dapat diterapkan di pusat layanan masyarakat, bank, pendidikan, dan lainnya. Pada penelitian ini, digunakan model berbasis Deep Artificial Neural Network (Deep ANN) dalam mengklasifikasikan emosi suara. Dataset yang digunakan ialah “Toronto Emotional Speech Set” dengan 14 class dan 2.800 data audio. Deep ANN tersusun dari 2 hidden layer dengan masing-masin 100 dan 7 neuron menggunakan fungsi aktivasi Rectified Linear Unit (ReLU). Ekstraksi fitur diberlakukan untuk semua file audio menggunakan metode Mel Frequency Cepstrum Coefficient (MFCC). Berdasarkan hasil yang diperoleh, arsitektur berbasis Deep ANN ini dengan 100 epoch mendapatkan tingkat akurasi yang sangat baik dengan nilai akurasi adalah 99.71%, presisi rata-rata 99.97%, recall rata-rata 99.97%, dan skor F1 rata-rata 99.97%.Unduhan
Diterbitkan
2021-08-09
Cara Mengutip
Ajrana, A., Akbar, A., & Lawi, A. (2021). Implementasi Algoritma Deep Artificial Neural Network Menggunakan Mel Frequency Cepstrum Coefficient Untuk Klasifikasi Audio Emosi Manusia. Proceeding KONIK (Konferensi Nasional Ilmu Komputer), 5(1), 66–73. Diambil dari https://prosiding.konik.id/index.php/konik/article/view/20
Terbitan
Bagian
Articles