Zorlu işitme koşullarında, işlevini yerine getirebilmek için çok çeşitli mekanizmalar geliştiren işitme sistemi, çevresel bilgileri kullanarak kaynakları birbirinden ayırmalıdır. Amacımız, işitsel korteksteki nöronal aktivitenin, çeşitli gürültü seviyelerinde davranışsal performansı öngörüp öngörmediğini doğrulamaktır. Bu çalışmada, derin öğrenme teknikleri kullanılarak, gürültülü bir ortamda, hedef sesin varlığı ve yoğunluğunun işitsel kortekste nasıl kodlandığı incelenmiştir. Nöronal veriler, Skalogram veya Mel-spektrogram görüntülere dönüştürülmüştür. Bu görüntüler seslerle önceden eğitilmiş yapay sinir ağı ile işlenmiştir ve sonuçlar karşılaştırılmıştır. Nöronal kodlama kapsamında, hedef sesin yüksek veya düşük gürültü ortamında mevcut olup olmadığı ve 6 hedef ses seviyesinin ayırt edilip edilemeyeceği analiz edilmiştir. Yüksek veya düşük kontrast içerisinde hedef sesin varlığının ve seviyesinin beyinde kodlanması değerlendirilmiştir. Yüksek kontrastta en zayıf hedef ses, %90,4 AUC değeriyle tespit edilirken, düşük kontrastta en zayıf hedef ses, %100 AUC değeriyle sınıflandırılmıştır. Bu işlemin anlaşılması, duyusal engelli kişilere yardımcı olabilecek yapay sistemlerin geliştirilmesine olanak sağlayacaktır.
In challenging hearing conditions, the auditory system, which has developed a wide variety of mechanisms to perform its function, must distinguish between sources using environmental information. Our aim is to verify whether neuronal activity in the auditory cortex predicts behavioural performance at various noise levels. In this study, deep learning techniques were used to investigate how the presence and intensity of the target sound are encoded in the auditory cortex in a noisy environment. Neuronal data were converted into Scalogram or Mel-spectrogram images. These images were processed using an artificial neural network pre-trained with sounds, and the results were compared. Within the scope of neural coding, it was analysed whether the target sound was present in high or low noise environments and whether 6 target sound levels could be distinguished. The encoding of the target sound's presence and level in the brain within high or low contrast was evaluated. In high contrast, the weakest target sound was detected with an AUC value of 90.4%, while in low contrast, the weakest target sound was classified with an AUC value of 100%. Understanding this process will enable the development of artificial systems that could assist individuals with sensory impairments.
| Primary Language | Turkish |
|---|---|
| Subjects | Deep Learning, Neural Networks |
| Journal Section | Research Article |
| Authors | |
| Publication Date | December 3, 2025 |
| Submission Date | August 3, 2025 |
| Acceptance Date | November 25, 2025 |
| Published in Issue | Year 2025 Volume: 28 Issue: 4 |