California San Diego Üniversitesi’nden araştırmacılar, kuşların çıkardıkları cıvıltılarla neler söylediklerini tahmin eden makine öğrenme sistemi geliştirdiler.
Kuşların çıkardıkları cıvıltılar, insanların konuşmalarıyla bazı eşsiz benzerlikler paylaşıyor. Bu nedenle de yapılan bu yeni bir araştırma ile vokal motor becerisinin öğrenilmesi, yürütülmesi ve sürdürülmesinin arkasındaki çoklu mekanizmalar ve devreler hakkında genel bir fikir vereceği de düşünülüyor.
Ancak sesleri gerçek zamanlı olarak çevirmek pek de kolay değil. Mevcut son teknoloji sistemler, doğal düşünce-konuşma modellerimizle karşılaştırıldığında son derece yavaş kalıyorlar. Örneğin; Google Asistan veya Alexa ile etkileşim kurulduğunda uzun duraklamalar yaşanır. Bunun nedeni; AI’nın konuşmayı işlemesi ve yetenekleriyle ilgili olarak her kelimenin ne anlama geldiğini belirlemesi.
BİR DÖNÜM NOKTASI
Birdsong olarak adlandırılan çalışmada ilk olarak araştırma ekibi bir düzine kuş beynine elektrotlar yerleştirdi ve ardından kuşlar cıvıldarken aktiviteyi kaydetmeye başladılar. Ancak sadece bir yapay zekâyı gerçekleşen sinirsel aktiviteyi tanıması için eğitmek yeterli değildi, kuşların beyinlerindeki nöronlar arasındaki iletişimin nasıl çalıştığını tamamen haritalamak bile son derece karmaşıktı.
Böylece araştırmacılar, gerçek zamanlı kuş eslerini AI’nın çalışabileceği tanınabilir kalıplara indirgemek için başka bir sistem eğitti. Kuş cıvıltılarını gerçek zamanlı olarak işlemek oldukça etkileyici bir adım; bu sesleri insan konuşmasıyla çoğaltmak ise bir dönüm noktası niteliğinde.
Araştırmacılara göre; bir yapay zekâya kuşların çıkardıkları sesleri anlamayı öğretmek, insanların konuşmaları için geliştirilecek sistemler için son derece değerli.