Gerçek Testlerden Sonra Hâlâ Abartılı Gelen Yapay Zeka Araçları
Viral bir teknoloji demosu ile kullanışlı bir ofis aracı arasındaki uçurum giderek açılıyor. Şu anda pazarlama departmanlarının sihir vaat ettiği, kullanıcıların ise sadece süslü bir otomatik tamamlama ile karşılaştığı bir dönemdeyiz. Birçok insan bu sistemlerin düşünmesini bekliyor, ancak onlar sadece bir dizideki bir sonraki kelimeyi tahmin ediyorlar. Bu yanlış anlaşılma, bir araç temel mantıkta başarısız olduğunda veya gerçekleri uydurduğunda hayal kırıklığına yol açıyor. İnsan denetimi olmadan yüzde 100 güvenilir bir araca ihtiyacınız varsa, mevcut üretken yapay zeka asistanları dalgasını tamamen görmezden gelmelisiniz. Bu araçlar, doğruluğun tek önemli ölçüt olduğu yüksek riskli ortamlar için henüz hazır değiller. Ancak işiniz beyin fırtınası veya taslak hazırlamayı içeriyorsa, gürültünün altında gömülü bir fayda var. Temel çıkarım şu ki, bu araçların zekasını abartırken onları kullanışlı hale getirmek için gereken iş miktarını küçümsüyoruz. Sosyal medyada gördüklerinizin çoğu, standart bir kırk saatlik çalışma haftasının baskısı altında dağılan, özenle hazırlanmış bir performanstır.
Şık Takım Elbiseli Tahmin Motorları
Birçok aracın neden hayal kırıklığı yarattığını anlamak için aslında ne olduklarını anlamanız gerekir. Bunlar büyük dil modelleridir (LLM). İnsan metinlerinden oluşan devasa veri setleri üzerinde eğitilmiş istatistiksel motorlardır. Gerçeklik, etik veya fiziksel dünya kavramına sahip değillerdir. Bir soru sorduğunuzda, sistem makul görünen bir yanıt üretmek için eğitim verilerindeki kalıpları arar. İşte bu yüzden şiir yazmada çok iyiler ama matematikte çok kötüler. Doğru cevaba ulaşmak için gereken mantığı yürütmek yerine, doğru bir cevabın stilini taklit ediyorlar. Bu ayrım, yapay zekanın bir arama motoru olduğu yönündeki yaygın yanlış kanının kaynağıdır. Bir arama motoru mevcut bilgiyi bulur. Bir LLM ise olasılığa dayalı yeni bir metin dizisi oluşturur.