Şimdi size bazı örneklerle ilham verdiğimize göre, yapay zeka odaklı araçları kurumsal düzeyde uygulamadaki bazı zorlukları keşfedelim.
Doğru verilerle eğitim modelleri
ChatGPT, Gemini (eski adıyla Bard) ve diğerleri gibi sohbet tabanlı LLM’lerin şaşırtıcı derecede doğru yanıtlar sunduğu göz önüne alındığında, benzer bir aracın dahili olarak dağıtılmasının kutudan çıktığı anda aynı kaliteyi sağlayabileceğini düşünmek kolaydır. Ancak elbette bir model yalnızca öğrendiği veriler kadar doğru olabilir.
Ayrıca, aşağıdaki gibi soruları da dikkate almak zorunda kaldık:
- Verileri nasıl tarayacağız ve model için kullanılabilir hale gelmesini nasıl sağlayacağız?
- Belgeleri diğer dillerde yorumlamasına ve doğru bir şekilde çevirmesine güvenebilir miyiz?
- Verileri farklı para birimleri ve sayı biçimlerinde nasıl yorumlayacak?
- Hangi yazılım platformlarına ve protokollerine bağlarız? (CRM, ERP, E-posta …)
İyi tanımlanmış bir model kesinlikle güçlü olsa da, ne yazık ki iyi organize edilmiş, yapılandırılmış verilerin yerini tutamaz. Verilerden en iyi şekilde yararlanmak için güçlü veri yönetimi uygulamaları hala gereklidir. Bu nedenle, kullanıma hazır bir çözüm yerine özel bir uygulamayı takip etmenin daha iyi olduğuna inanıyoruz. Küçük proje ekiplerinden yönetim kuruluna kadar yapılması gereken birçok görüşme vardır ve standart bir SaaS ürünü kuruluşunuzun ihtiyaç duyduğu özelleştirmeye sahip olmayabilir.
Gizliliği koruma
Doğal olarak, LLM’lerin tüm dahili verilerimizi taramasına izin vermek istiyoruz, ancak dikkate alınması gereken sınırlamalar vardı.
- Maaş bilgilerini ve diğer hassas verileri taramasına izin veriyor muyuz? Bir kullanıcı ilgili bir soru sorduğunda bu bilgilerin sızmasını nasıl önleyebiliriz?
- Kullanıcılarımızdan gelen her sorgulamayı günlüğe kaydetmeli miyiz, yoksa sorgulamalar şifreli ve gizli mi olmalı?
Geliştirme sürecimizde, ilerleme isteği ile hassas bilgilerin korunması ihtiyacını dengelememiz gerektiği kısa sürede anlaşıldı. Ayrıca, kullanıcıları araca güvenmeye ve mümkün olduğunca kullanmaya teşvik etmek için çalışanların gözetiminden de ödün vermeyi tercih ettik. Başka bir uygulamada, her sorgunun günlüğe kaydedilmesi, etkileşimleri incelememize ve algoritmayı geliştirmemize olanak verebileceğinden daha değerli olabilir.
Yaratıcılığı ve bağımsızlığı koruma
Hepimiz navigasyon sistemlerine çok fazla güvenen ve kendini hiçliğin ortasında bulan sürücülerin hikayelerini duyduk. Google’a Apple Haritalar’a ve üretken AI sistemlerimize körü körüne güvenilemez. Kurumsal düzeydeki araçlar, sonuçlarını doğrulamaya yönelik bir yöntem olmadan çalışamaz, ancak bunun dikkatli bir şekilde tasarlanması gerekir, böylece bir yanıtı doğrulamak, onu eski moda yöntemle bulmak kadar uzun sürmez.
Benzer şekilde, hiçbir araç yaratıcılığın yerini tutmamalıdır. Üretken Yapay zeka, örneğin bir blog gönderisini göstermek için görüntü oluşturma hizmetlerini kullanarak mevcut fikirlerimizi geliştirebilir. Ya da ilham almak için bir fikir listesi sağlayabilir, ancak liderlik eden şirketler bu çıktıyı yalnızca bir başlangıç noktası olarak kullanacaktır. Unutmayın, bir genAI aracı bir cümle yazdığında, yalnızca bir sonraki en olası kelimeyi tahmin ederken, bir görüntü oluşturucu bize belirli anahtar kelimelerle etiketlenmiş görüntülerde hangi renkli pikselin diğerinin yanında en sık göründüğünü gösterir. Bu araçlar ortalama düzeyde mühendislerdir. Palet kahverengiye dönene kadar tüm boyalarımızı karıştırmaktan memnun olmadığımız sürece insan müdahelesi çok önemlidir.
Mevcut önyargıları güçlendirme
Yapay zekanın tarihsel önyargıları pekiştirme riski hakkında çok şey söylendi. Netflix belgeseli Coded Bias ve The A.I. Dilemma iyi başlangıç noktalarından bazılarıdır. The Center for Humane Technology’nin 2023 tarihli bir sunumu olan The A.I. Dilemma, Biden yönetimini yapay zeka yönetim emrini yayınlamaya ve düzenleme seçeneklerini araştırmaya sevk etti. Özetle, yapay zeka destekli sistemlerin üzerinde eğitim aldıkları verilerin önyargılarını yansıttığını anlamak çok önemlidir. Tüm umutlarımızı bunu sistemlerimizden tasarlamaya bağlamak yerine, sorumluluğumuz yine de çıktıya eleştirel bir insan gözü uygulamaktır.
Üretken yapay zeka ile ilgili yanılgılar
Daha pratik düzeyde konuşursak, genAI maalesef bir uygulama indirerek veya bir SAAS aracına abone olarak (en azından kurumsal düzeyde) kolayca uygulanabilecek bir teknoloji değildir, ancak beklediğinizden daha basit olabilecek unsurlar vardır.
LLM’lerin kara kutu olması gerekmez
Bir yanıt oluşturmak için kullanılan kesin süreç belirlenemese de bu, LLM’lerin kaynak sağlama konusunda yetersiz olduğu anlamına gelmez. Sürdürülebilirlik raporu örneğimizde detaylandırdığımız gibi, bilgi kaynağına atıfta bulunmak tamamen mümkündür. Ayrıca, bir çözüm özel olarak oluşturulduğunda, algoritmalar ve eğitim verileri özel varlıklar olmaktan ziyade bilinir ve kuruluşa aittir.
GenAI araçları önemli bir yatırımdır
Kurumsal işletmeler, çok sayıda yetenekli teknik personele sahip olma eğilimindedir. Mevcut insan kaynaklarını mümkün olduğu kadar kullanmanın en iyisi olduğuna inanıyoruz, örneğin kuruluşunuz zaten veri tabanları oluşturma veya bir LLM eğitimi konusunda oldukça yetkin olabilir. Benzer şekilde, teknik bir kişiyi şirket içinde istihdam etmek her zaman mantıklı değildir. Belki de bir Python Geliştiricisini işe almak yerine, kuruluşunuz Python üzerinde çalışan bir SAAS’a abone olmak için daha iyi bir konuma sahip olacaktır. Yatırım, verileri LLM’lerin tam olarak anlayabileceği şekilde yeniden yapılandırabilen bir Veri Bilimcisine yapılabilir. Bu stratejik kararlar maliyet üzerinde önemli etkiler yaratabilir.