Teknoloji

Yapay zekayı nasıl inançlı ve verimli kullanabiliriz?

Kaspersky uzmanları, kuruluşların üretken yapay zeka araçlarını riskleri önleyecek formda nasıl kullanabilecekleri konusunda tavsiyelerde bulundu.

Yayınlanma

@

Kaspersky anketi, Türkiye’deki iştirakçilerin yüzde 40’ının yapay zekayı iş yerinde bir takım üyesi olarak görmeye başladığını ortaya koyuyor.

Kötü niyetli kullanıcıların, bireyleri amaç alan daha ikna edici toplumsal mühendislik hücumları oluşturmak için üretken yapay zeka araçlarını tesirli bir halde benimsemesi de bu durumu daha karmaşık hale getiriyor. Örneğin şahsileştirilmiş kimlik avı e-postaları hazırlamak, insanları taklit eden gerçekçi ses, görüntü yahut metin içeriği içeren “deepfake”ler oluşturmak, hatta kamuoyunu etkileyebilecek yahut gerçeği gizleyebilecek dezenformasyon kampanyaları yaymak üzere.

Kuruluşlar, üretken yapay zekanın kullanımı kelam konusu olduğunda merkezi bir yaklaşım benimseyebilirler. Bu çeşit bir hizmet daha sonra bir bulut sağlayıcısı üzerinden kurumsal bir hesap aracılığıyla sağlanabilir ve gerekli tüm tedbirlerin alındığından emin olunabilir. Bunlar, bildirilerdeki şahsî olarak betimlenebilecek bilgilerin izlenmesinin yanı sıra nezareti de içerebilir.

Uzmanlara nazaran, kuruluşlar çalışanlarını üretken yapay zekanın kabul edilebilir kullanımı ve bunlara erişimin şirket tarafından yönetilen uygun yolları konusunda eğitmeli. Birebir vakitte, kuruluşlar, üretken yapay zeka kullanmanın yararlarını ve risklerini anlayarak ve muhtemel tehlikeleri azaltmak üzere gerekli güvenlik tedbirlerinin alınmasını sağlayarak çalışan verimliliğini ve iş memnuniyetini değerli ölçüde artırabilir.

Çalışanlar için genel kurallar, bâtın dataların yapay zeka araçlarına ifşa edilmemesini, rastgele bir kritik kullanım durumu için yapay zekanın tavsiyelerine güvenilmemesini, bilgilerin kesinlikle doğrulanmasını, bir sohbet botuna sağlanan rastgele bir datanın dışarıya sızabileceğini hatırlamayı da içermeli.

Ayrıca büyük lisan modeli (LLM) tabanlı sistemleri çalıştıran tüm bilgisayarın ve sunucuların yeni güvenlik araçlarıyla korunması gerekir.

“ÜRETKEN YAPAY ZEKANIN BÜSBÜTÜN ENGELLEMESİ GEREKMİYOR”

Açıklamada görüşlerine yer verilen Kaspersky Makine Tahsili Teknolojisi Küme Müdürü Vladislav Tushkanov, üretken yapay zeka araçlarının teknolojik bilgi tahlili ve rutin vazifelerde yardımcı olduğu için çalışanların daha üretken olmasını sağladığını belirterek, lakin birçok kişinin yapay zekayı patronlarından gerekli müsaadesi almadan kullandığını savundu.

Bu durumun kurum için değerli riskler doğurabileceğini aktaran Tushkanov, “Örneğin bilgi sızıntısı kıymetli bir kaygı kaynağı haline gelebilir. Ayrıyeten, çalışanlar ‘halüsinasyonlar’ sonucunda yanlış bilgiler alabilir ve bunlara nazaran hareket edebilir. Bu, büyük lisan modellerinin yanlış bilgileri kendinden emin bir formda sunmasından kaynaklanır. Bu halüsinasyonlar, üretken yapay zeka makul iş fonksiyonlarının nasıl yerine getirileceği konusunda tavsiyelerde bulunmak için kullanıldığında bilhassa tehlikeli olabilir.” tabirlerini kullandı.

Tushkanov, durumun, kuruluşların üretken yapay zekayı büsbütün engellemesi gerektiği manasına gelmediğini vurgulayarak, karar vericilerin günlük iş rutininin hangi kısımlarının işletmenin karşı karşıya olduğu tehdit seviyesine olumsuz tesirde bulunmadan üretken yapay zeka araçlarıyla otomatikleştirilebileceğini anlamak için kapsamlı bir risk değerlendirmesi yapması gerektiğini kaydetti.

ChatGPT ve öbür tahlilleri yasaklamanın ülkü seçenek olmayabileceğine dikkati çeken Tushkanov, “Üretken yapay zeka, çok fazla ve çok az önlem ortasındaki dengeyi bularak verimli bir biçimde kullanılabilir. Daha geniş manada, kamu ve özel bölüm ortasındaki işbirlikleri, üretken yapay zekanın iş büyümesine yardımcı olmak, inovasyon için daha fazla kaynak ayrılmasını sağlamak ve riski yönetmek için kritik bir yardımcı haline gelmesine katkı sağlayacaktır.” açıklamasında bulundu.

Leave a Reply

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Exit mobile version