Beyin Dalgaları Bilgisayar Yardımıyla Sese Dönüştürüldü

İnme geçiren kişilerde en sık görülen sorunlardan biri, hastanın konuşmak istediği halde beynindeki hasar nedeniyle istediği sesleri çıkarmayı başaramamasıdır. Afazi olarak isimlendirilen bu durumda, kişilerin söylemek istedikleri ne yazık ki beyinlerinde saklı kalır. Oysa beyin, hasar görmüş olsa da hala düşünce üretebilir durumdadır ve sinyaller sese dönüştürülerek bu kişilerin ne demek istediklerini anlamak mümkün olmalı.

Yeni yapılan bir çalışmada üç araştırma grubu bunu gerçeğe çevirdi: Beyne yerleştirdikleri elektrotlar sayesinde insanların beyinlerinden geçenleri ses haline getirmeyi başardı.

bioRxiv‘de yayınlanan çalışmada, ekipler katılımcıların beyinlerini görüntülerken bir yandan da onlardan sesli olarak ve dudaklarını oynatarak bir şeyler okumalarını istedi ve bu sesleri kaydetti. Bu sırada bir bilgisayar, beyinde oluşan sinyalleri hastaların çıkardıkları seslerle eşleştirdi. Uzun denemelerin sonunda bilgisayar insan beyin sinyallerini okuyarak hastaların çıkarmak istedikleri sesi yüksek doğrulukla tahmin edebilir hale geldi.

“Beyin sinyallerini sese dönüştüren bilgisayar İngilizce 0’dan 9’a kadar sayıyor.”

İnme sonucu konuşma yetisini kaybeden hastaların bir kısmı gözleriyle ekranda beliren kelimeleri seçerek söylemek istediklerini kısmen ifade edebiliyorlar. Ancak bu tür bir iletişim çoğu hasta için mümkün değil.

Yeni yöntemle felçli hastaların beyin dalgalarını okuyarak iletişim kurmalarını sağlayabilirsek, iletişimin hızı zamanla oldukça artabilir. Bu tür bir beyin bilgisayar arayüzü felçli hastalar için önemli bir fayda sağlar. Kişiler ses tonunu ayarlayabilir, hatta hızlı konuşmalara dahil olabilir.

Ancak bu teknolojinin önünde de engeller var. Columbia Üniversitesi’nden bilgisayar bilimci Nima Mesgarani şöyle diyor: “Sinir hücrelerinin nerede aktif nerede pasif olduğunu gösteren desenleri bulmaya çalışıyoruz. Böylece konuşmayı daha iyi algılayabilirizancak bu desenler pek de basit değil.

Konuşma sinyalleri kişiden kişiye değişiyor. Bu da demek oluyor ki her bilgisayar programı kişiye özel tasarlanmalı. Ayrıca, elde edilecek verileri en iyi hale getirmek için elektrotları kafatasının içine yerleştirmek gerek. Günümüzde bu işlem çok zor değil, beyin ameliyatları ve epilepsi tedavileri esnasında gerçekleştiriliyor. Ancak bu işlemle veri toplamak için sahip olduğumuz zaman kısıtlı, ancak 20-30 dakika.

Makalenin arkasındaki çalışma grupları, verileri sinir ağlarını bilgilerle besleyerek elde ettiler. Her bilgi, bilgisayımsal düğümlerden geçer ve ağlar, bu geçişlerle oluşan bağlantılar sayesinde öğrenir. Deneyler sırasında bu ağlar konuşma esnasındaki, dinleme esnasındaki ve rastgele beyin aktivitesinden elde edilen bilgilere maruz bırakıldı.

Mesgarani’nin takımının elindeki veriler beş epilepsi hastasına dayanmakta. Bu ekip hem dinleme hem de konuşma sırasında aktif olan işitsel korteksin aktivitesini değerlendirdi. Katılımcılara bazı hikayeler dinletildi ve sıfırdan dokuza kadar olan rakamları okumaları istendi. Ardından bilgisayar rakamları yalnızca sinirsel aktiviteye dayanarak tekrar oluşturdu ve seslendirdi. Bu seslendirmenin anlaşılma oranı yüzde 75‘ti.

Almanya’daki Bremen Üniversitesi’nden sinirbilimci Miguel Angrick‘in ve Hollanda’daki Maastricht Üniversitesi’nden Christian Herff‘in liderliğini üstlendiği ekipler ise çalışmalarını beyin tümörü ameliyatı geçiren altı kişiden elde edilen veriler ile gerçekleştirdi. Mikrofon, katılımcıların tek heceden oluşan kelimeyi okumalarını kaydetti. Aynı zamanda elektrotlar de beyinden gelenler sinyalleri kaydediyordu. Ardından bu veriler birleştirildi ve seslendirme gerçekleştirildi. Bu seslendirmenin yaklaşık yüzde 40‘ı anlaşılabilirdi.

Son olarak da, San Fransisco California Üniversitesi’nden beyin cerrahı Edward Chang üç epilepsi hastasından elde ettiği verilerle önemli sonuçlara ulaştı. Chang ve ekibi epilepsi hastalarına bir “tam cümle” okuturken beyinlerinde oluşan sinyalleri kayıt altına aldı. Bilgisayar tarafından gerçekleştirilen seslendirmenin ardından kayıtlar online olarak test edildi ve anlaşılabilirliğin yüzde 80 oranında olduğu belirlendi.

Çalışmayı yapan ekiplerden birinin başında olan Dr. Herff bu veriler ışığında bir konuşma protezine bir adım daha yaklaştığımızı düşünüyor.

Buraya kadar sıkıntı yok, çünkü katılımcıların hepsi konuşabiliyor. California’daki San Diego Eyalet Universitesi’nden dil yetisi üzerine çalışan Stephanie Riès başka bir noktaya işaret ediyor: “Konuşamayan katılımcılarda bu nasıl işleyecek?

Duymamız ile konuşmamız arasında sinyal farklılıkları olacaktır ve beyin sinyalleriyle tam olarak eşleşmeyen bir seslendirmenin bilgisayar tarafından doğru şekilde algılanmasızor olacaktır. “Bu yüzden almamız gereken uzun bir yol var” diyor nöral mühendis Gerwin Schalk.

Bu konuda Dr. Herff bir öneride bulunuyor: “Beyin bilgisayar arayüzünü kullanıcıları bilgilendirilebilir ve eğer bilgisayarın konuşmasını duymaya başladıklarında düşüncelerini buna uygun hale getirirlerse sorun çözülebilir. Sinirsel ağlar ve katılımcılar birlikte yeterli seviyede tekrar yaparlarsa beyin ve bilgisayar orta noktada buluşacaktır.”

Kaynak: Nöroblog