ChatGPT gibi Yüksek Lisans'lar gerçek veritabanları değildir; kamuya açık tüm bilgileri veya internetteki her şeyi “öğrenmediler”. Öğrendiler kelimelerin ilişkileri İnsan bilgisine maruz kalmaktan kurtulun ve bir dizideki bir sonraki kelimeyi istatistiksel olarak tahmin etmek için buna güvenin.
Bu sürecin sonucunda bazı cevaplar icat ederler veya halüsinasyon görürler. Bu açık değildir çünkü metinler kulağa hoş gelir ve varsayılan olarak onlara doğruluk atfedilir.
Bu araçları kullanmak, ne profesyonel ne de eğitimsel hiçbir alanda başlı başına bir sorun değildir. Asıl zorluk bunları, işi, yaratıcılığı ve insan düşüncesini geliştirmek için kullanmak, onun yerine geçmek değil, eleştirel bir bakış açısıyla yaklaşmaktır.
Yapay zeka nasıl çalışır? Dört temel prensip
Yapay zekanın size söylediği her şeyi olduğu gibi kabul etmemeniz için, onun çalışma prensiplerini açıklıyorum:
1. Veriyi değil, bilgi ve bağlam arasındaki ilişkiyi “öğrenir”
Dil modelleri öğrenilen gerçeklerin depoları değildir. Gerçekte, LLMS devasa miktarda bilgi veya her türden belgeyle eğitilir: birkaç örnek vermek gerekirse grafikler, diyagramlar, tıbbi raporlardan banka ekstrelerine kadar.
Üstelik insanların bu belgelere yaptığı açıklamalarla eğitiliyorlar. Bu, onların öğrenmediği, bunun yerine bu bilgiyle eğitim aldığı ve söz konusu belgeler bağlamında kelimeler arasındaki ilişkileri tanıdığı anlamına gelir.
Bu araçlardan birine başvurduğumuzda, çıkarım olarak bilinen sonuç, belirli dilsel bağlamlarda belirli kelimeler arasındaki ilişkilerin sayısının veya baskınlığının bir fonksiyonudur.
Hiçbir gerçek yok, bağlama bağlı olarak az ya da çok ağırlığa sahip olan sözcük ilişkileri var.
2. İnsan dili kalıplarıyla yanıt verirler
Büyük dil modelleri, kelimeleri, çok daha geniş bir bağlamda olmasına rağmen, cep telefonundaki tahminli klavyeye benzer şekilde kullanır.
Dolayısıyla bir insanın vereceği tepkiye çok yakın bir tepki verebilirler.
3. Yanlış olabilecek, iyi yazılmış cevaplar üretirler.
ChatGPT'den veya başka herhangi bir üretken yapay zekadan gelen bilgilerin anlamlı ve hatta doğru olması, bunların her zaman doğru olduğu anlamına gelmez.
Bunun güzel bir örneği tahminlerdir. Yapay zeka, geçmiş bilgilere ve kalıplara dayanarak tahminler yapabilir ancak dış faktörler bu tahminlerin gidişatını değiştirir.
Sorduğumuz sorular, eğitildikleri verilerden çok uzak olduğunda, düzenli olarak iyi ifade edilmiş ancak yanlış yanıtlar vereceklerdir.
Bu dil modellerini sorma şeklimiz aynı zamanda aldığımız yanıtları da etkiler. Doğru verileri sorma ve talep etme yeteneğimizi geliştirmek, yapay zeka araçlarını daha iyi kullanmanın da anahtarıdır.
4. Çok fazla bilgiye sahipler ancak bilgileri sınırlıdır ve önyargılıdır
Yüksek Lisans'lar çok geniş bir bilgi tabanıyla eğitildi, ancak her zaman sınırlı ve önyargıların olabileceği bir bilgi tabanı.
Yapay zeka halihazırda var olana dayanır ve bu aynı zamanda ürettiği içerik veya üründe insan hatalarının veya önyargılarının mevcut olduğu anlamına da gelir.
Bu sürecin sonucunda bazı cevaplar icat ederler veya halüsinasyon görürler. Bu açık değildir çünkü metinler kulağa hoş gelir ve varsayılan olarak onlara doğruluk atfedilir.
Bu araçları kullanmak, ne profesyonel ne de eğitimsel hiçbir alanda başlı başına bir sorun değildir. Asıl zorluk bunları, işi, yaratıcılığı ve insan düşüncesini geliştirmek için kullanmak, onun yerine geçmek değil, eleştirel bir bakış açısıyla yaklaşmaktır.
Yapay zeka nasıl çalışır? Dört temel prensip
Yapay zekanın size söylediği her şeyi olduğu gibi kabul etmemeniz için, onun çalışma prensiplerini açıklıyorum:
1. Veriyi değil, bilgi ve bağlam arasındaki ilişkiyi “öğrenir”
Dil modelleri öğrenilen gerçeklerin depoları değildir. Gerçekte, LLMS devasa miktarda bilgi veya her türden belgeyle eğitilir: birkaç örnek vermek gerekirse grafikler, diyagramlar, tıbbi raporlardan banka ekstrelerine kadar.
Üstelik insanların bu belgelere yaptığı açıklamalarla eğitiliyorlar. Bu, onların öğrenmediği, bunun yerine bu bilgiyle eğitim aldığı ve söz konusu belgeler bağlamında kelimeler arasındaki ilişkileri tanıdığı anlamına gelir.
Bu araçlardan birine başvurduğumuzda, çıkarım olarak bilinen sonuç, belirli dilsel bağlamlarda belirli kelimeler arasındaki ilişkilerin sayısının veya baskınlığının bir fonksiyonudur.
Hiçbir gerçek yok, bağlama bağlı olarak az ya da çok ağırlığa sahip olan sözcük ilişkileri var.
2. İnsan dili kalıplarıyla yanıt verirler
Büyük dil modelleri, kelimeleri, çok daha geniş bir bağlamda olmasına rağmen, cep telefonundaki tahminli klavyeye benzer şekilde kullanır.
Dolayısıyla bir insanın vereceği tepkiye çok yakın bir tepki verebilirler.
3. Yanlış olabilecek, iyi yazılmış cevaplar üretirler.
ChatGPT'den veya başka herhangi bir üretken yapay zekadan gelen bilgilerin anlamlı ve hatta doğru olması, bunların her zaman doğru olduğu anlamına gelmez.
Bunun güzel bir örneği tahminlerdir. Yapay zeka, geçmiş bilgilere ve kalıplara dayanarak tahminler yapabilir ancak dış faktörler bu tahminlerin gidişatını değiştirir.
Sorduğumuz sorular, eğitildikleri verilerden çok uzak olduğunda, düzenli olarak iyi ifade edilmiş ancak yanlış yanıtlar vereceklerdir.
Bu dil modellerini sorma şeklimiz aynı zamanda aldığımız yanıtları da etkiler. Doğru verileri sorma ve talep etme yeteneğimizi geliştirmek, yapay zeka araçlarını daha iyi kullanmanın da anahtarıdır.
4. Çok fazla bilgiye sahipler ancak bilgileri sınırlıdır ve önyargılıdır
Yüksek Lisans'lar çok geniş bir bilgi tabanıyla eğitildi, ancak her zaman sınırlı ve önyargıların olabileceği bir bilgi tabanı.
Yapay zeka halihazırda var olana dayanır ve bu aynı zamanda ürettiği içerik veya üründe insan hatalarının veya önyargılarının mevcut olduğu anlamına da gelir.