OpenAI’nin başkanları, “süper zeka” ve yapay zeka sistemlerinin düzenlenmesi davetinde bulunarak, teknolojinin oluşturduğu “varoluşsal riski” azaltmaya yardımcı olacağını öne sürüyorlar.
Şirketin web sitesinde bu hafta yayınlanan bir açıklamada, kurucu ortaklar Greg Brockman ve Ilya Sutskever ile CEO Sam Altman, memleketler arası bir düzenleyicinin eninde sonunda “sistemleri denetlemek, kontroller talep etmek, güvenlik standartlarına uygunluğu test etmek ve dağıtım derecelerine ve güvenlik düzeylerine kısıtlamalar getirmek” için gerekli olacağını savundu.
“RİSKİ YÖNETMEK ZORUNDAYIZ”
OpenAI grubu, “önümüzdeki on yıl içinde yapay zeka sistemlerinin birden fazla alanda uzman marifet seviyesini aşacağı ve günümüzün en büyük şirketlerinden biri kadar üretken faaliyet yürüteceği düşünülebilir.
Hem potansiyel artıları hem de eksileri açısından üstün zeka, insanlığın geçmişte gayret etmek zorunda kaldığı başka teknolojilerden daha güçlü olacaktır. Çok daha müreffeh bir geleceğe sahip olabiliriz; lakin oraya ulaşmak için riski yönetmek zorundayız.”
Açıklama, Altman’ın geçen hafta Kongre’de yaptığı ve ABD merkezli şirketin CEO’sunun da başka bir düzenleyici kuruma duyulan gereksinimi söz ettiği yorumları yineledi.
ELEŞTİRMENLER BAŞKANLARIN ÇAĞIRISINA GÜVENİLMEMESİ KONUSUNDA UYARDI
Eleştirmenler, teknoloji sanayisinde kısıtlama olmaksızın gelişmeye devam ederek kâr elde eden önderlerin düzenleme davetlerine güvenilmemesi konusunda ihtarda bulundular.
Bazıları tarafından, OpenAI’nin iş kararlarının bu güvenlik ihtarlarıyla çeliştiğini söylüyor. Zira süratli bir biçimde piyasaya sürülmeleri bir yapay zeka silahlanma yarışı oluşturduğunu ve Google’ın ana şirketi Alphabet üzere şirketlere, siyaset yapıcılar hala risklerle boğuşurken eserleri piyasaya sürmeleri için baskı yaptığı hatırlatıldı.