Amazon Alexa yakında ölen kişinin dahi sesini taklit edebilecek

Amazon Alexa yakında ölen kişinin dahi sesini taklit edebilecek

ABONE OL
Haziran 23, 2022 07:09
Amazon Alexa yakında ölen kişinin dahi sesini taklit edebilecek
0

BEĞENDİM

ABONE OL

Amazon, ülkemizde şimdi kullanılmayan dünyaca ünlü sesli asistanı Alexa için değişik bir güncelleme yayınlamayı planlıyor. Kullanıcılar yeni gelecek güncelleme ile birlikte Alexa’yı aile ya da arkadaşlarından birinin sesini taklit edecek biçimde kullanabilecek.

Amazon’un kıdemli lider yardımcısı Rohit Prasad, şirketin Çarşamba günü Las Vegas’ta düzenlediği bir konferansta, kullanıcıların Alexa’nın bir dakikadan daha az bir ses duyduktan sonra rastgele bir sesi taklit etmesine müsaade verecek bir sistem geliştirmeyi başardıklarını söyledi. Prasad, gayenin pandemi sırasında “pek çoğumuzun sevdiğimiz birini kaybettikten” sonra “anılarını kalıcı kılmak” olduğunu belirtti.

Amazon, sistemin hazır olduğunu söylemesine karşın kullanıcılara bu özelliğin ne vakit sunulacağı ile ilgili bir tarih vermekten kaçındı. Muhtemelen bu üslup bir güncelleme muadilleri ortasında birinci sefer sunulacağından Amazon tarafından gerekli müsaadelerin alınması için çalışmalar yürütülüyor.

SAHTEKARLIKLARIN ARTMASINA NEDEN OLABİLİR

Bu biçim projeler her ne kadar Amazon tarafından birinci kere duyurulsa da birinci örnek değil. Misal projeler birçok yarar sağlayabiliyor lakin suistimallerin de yaşanmasına neden oluyor. Microsoft, sunduğu yapay zekâ teknolojilerinde sesin taklit edilmesini kısıtladı. Microsoft’un ses taklit özelliği konuşma bozukluğu yahut öteki problemleri olan insanlara yardım etmeyi amaçlıyordu. Lakin birçok uzmanın bunun politik derin sahtekarlıkları yaymak için kullanılabileceğinden tasa etmesi üzerime Microsoft bu özelliği kısıtlamayı tercih etti.

Amazon, konferansta yeni Alexa’nın arkadaşlık vizyonunu da paylaştı. Bir görüntü tanıtımda, “Alexa, büyükannem bana Oz Büyücüsü’nü okumayı bitirebilir mi?” formunda soru bir çocuk tarafından Alexa’ya yöneltiliyor. Daha sonra Alexa komutu onayladı ve sesini değiştirdi. Masal anlatan Alexa, daha az robotik, görünüşte çocuğun gerçek hayattaki büyükannesi üzere konuşuyordu. 

Proje ne kadar temiz görünse de ses taklit uygulamaları Deepfake üzere teknolojiler ile birleştirildiğinde sahtekarlıkların önünü daha da açabilir. 

KAYNAK: REUTERS, HABER7

En az 10 karakter gerekli


HIZLI YORUM YAP

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.