
OpenAI adlı bir şirket tarafından geliştirilen yeni yapay zeka sohbet robotu ChatGPT hakkında çok sayıda Sohbet yapıldı. Gerçekten de, görebildiğim kadarıyla, insanlar çok az şey hakkında konuşuyor gibi görünüyor. Öyleyse, kamu tüketimi ve değerlendirmesi için buraya iki sentimi koymama izin verin.
İlk olarak, bunu okuyan ve ChatGPT’nin ne olduğunu bilmeyen bir veya iki kişi için açıklamama izin verin. Aslında, ChatGPT’nin kendisini tanıtmasına izin verin! Bir web tarayıcısı açarak şuraya gidiyorum: chat.openai.comekranın altındaki metin kutusuna tıklayın ve şunu yazın:
ChatGPT nedir??
Yanıtı oluşturan:
ChatGPT, OpenAI tarafından geliştirilen yapay zeka destekli bir dil modelidir. Aldığı girdiye dayalı olarak insan benzeri metinler oluşturmak için derin öğrenme tekniklerini kullanır. Geniş bir metin verisi külliyatı üzerinde eğitilmiştir ve soruları yanıtlamaktan yaratıcı yazı oluşturmaya kadar çok çeşitli istemlere yanıt verebilir.
ChatGPT aslında bir Doğal Dil İşlemcisi
(NLP). Bu yeteneğe ihtiyaç duyan herhangi bir uygulama için doğal dil metnini ayrıştırmak, anlamak, yorumlamak ve oluşturmak için tasarlanmıştır. ChatGPT’ye sorarsanız “ChatGPT ne için kullanılabilir?” size aşağıdakiler de dahil olmak üzere birkaç potansiyel uygulama sağlayacaktır:
- Müşterilerle insan benzeri bir şekilde etkileşime girebilen ve soruları yanıtlamaya veya onları yararlı bilgilere (SSS’ler gibi) yönlendirmeye yardımcı olan sohbet botları veya “sanal asistanlar” oluşturma yeteneği.
- Haber makaleleri, öyküler ve şiir dahil olmak üzere kullanıcı istemlerine dayalı metin oluşturma yeteneği.
- Metni analiz etme ve belirli bir metnin duygusunu olumlu, olumsuz veya nötr olarak kategorize eden bir “duygu analizi” oluşturma yeteneği.
- Metni bir dilden diğerine çevirme yeteneği.
- Sorulan sorulara cevap üretme yeteneği.
En çok tartışmayı yaratıyor gibi görünen bu son nokta. ChatGPT gerçekten de sorulara yanıtlar üretebilir, ancak bu yanıtlar genellikle sorunludur. ChatGPT, bilgilerini 2022’den önce İnternet’ten derlenen metinsel materyallerin bir özetinden oluşan bir “bilgi tabanından” alır. Bu materyal mutlaka gerçeklere dayalı değildir ve muhtemelen önyargılı ve kendi kendine hizmet etmektedir. ChatGPT gerçek bir durum kontrolü yapmaz. Daha da kötüsü, ChatGPT’nin rahatsız edici bir şekilde ihtiyaç duyduğunu hissettiği gerçekleri uydurma eğilimi vardır ve hatta bu uydurma “gerçekleri” desteklemek için sahte atıflar uydurabilir. Buna “halüsinasyon” denir.
CNET ve Bankrate dahil olmak üzere bazı çevrimiçi web siteleri bu sınırlamayı zor yoldan keşfetti. Siteler, ChatGPT tarafından oluşturulan düzinelerce makaleyi yayınladıktan sonra, olgusal hatalar bulunduktan sonra makaleleri kaldırmak zorunda kaldı. İşte kişisel bir örnek: ChatGPT’den Larry Burns tarafından yazılan kitapların bir listesini istediğimde, hiçbiri benim veya Larry Burns adlı başka birinin yazmadığı ve kendi kitaplarımın hiçbiri kitaplıkta olmayan kitapların bir listesini döndürecek. liste. ChatGPT ayrıca size Wall Street Journal, New York Times ve Forbes’ta makaleler yayınladığımı söyleyecektir, bunların hiçbiri doğru değildir.
ChatGPT’nin cevaplarının doğruluğuna güvenememenin yanı sıra, nasıl yapılacağı sorusu da var. değerli bu cevaplar olabilir. Cevaplar İnternet kaynaklı bir bilgi tabanından elde edildiğinden, herhangi bir konudaki geleneksel bilgelikten başka bir şey yansıtmamaları muhtemeldir ve bu yalnızca en genel terimlerle ifade edilir. Bir ChatGPT yanıtı ne kadar spesifik olursa, yanlış olma olasılığının o kadar yüksek olduğu gözlemlenmiştir. Ve elbette, en son en az bir yıl önce güncellenen bir bilgi tabanına atıfta bulunduğundan, ChatGPT’nin yanıtları büyük olasılıkla güncelliğini yitirecektir.
Ancak tüm bunlar daha büyük ve daha temel bir sorunu göz ardı ediyor: AI botlarının gerçek dünya hakkında hiçbir bilgisi ve gerçek yaşam deneyimi yok. Doğruyu yanlıştan, doğruyu yanlıştan ayıramazlar. Mantık ve akıldan acizdirler. “Bildiği” tek şey, kullanıcılarının onlara söyledikleri (ki bu doğru olmayabilir) ve bilgi tabanlarının metinsel bir analizinden toplayabildikleridir. Bu nedenle, ChatGPT gibi bir AI botunun size bir soruya doğru, ikna edici bir şekilde gerekçelendirilmiş, iyi araştırılmış bir yanıt vermesi olası değildir. Bunun yerine, size bu sorunun cevabının nasıl görünebileceğini öneren oluşturulmuş bir metin verecektir.
Bunu ifade etmenin başka bir yolu, ChatGPT’nin metinsel çıktısının yalnızca bir şablon cevabın kendisi için değil, bir cevap için. Boşlukları iyi araştırılmış argümanlar, referanslar, alıntılar ve olgusal verilerle doldurmak yine (insan) kullanıcıya kalmıştır.
Bu da bizi bu makalenin ana noktasına getiriyor: Yapay zeka botlarının bir dizi farklı iş ve endüstride insan işçilerin yerini alıp almayacağı (veya ne zaman) konusunda çok fazla tartışma var. Örneğin, yapay zekanın bir gün yazılım geliştiricilerin, web tasarımcılarının, yazarların, editörlerin, düzeltmenlerin, müşteri hizmetleri çalışanlarının, kredi memurlarının ve hatta avukatların ve doktorların yerini alabileceği önerildi. Olacak mı? Muhtemelen hayır ve neredeyse kesinlikle bir dereceye kadar insan katılımı ve yardımı olmadan olmaz. Aşağıdakiler de dahil olmak üzere AI ile çözülmesi gereken bir dizi sorun vardır:
- Yükümlülük. AI botları eğlenceli oyuncaklar yapar ve aşırı risk olmadan kullanılabilecekleri durumlarda bile faydalıdır. Ancak, bir müşteri hizmetleri botu müşteriye yanlış bir cevap verdiğinde veya bot tarafından oluşturulan bir haber makalesi bir yayıncıyı iftira davasına maruz bıraktığında veya bot tarafından oluşturulan bir yasal sözleşme, birini mali bir cezaya veya bir bota maruz bıraktığında kendinizi davalara hazırlayın. tarafından oluşturulan bilgisayar programı büyük bir hizmet kesintisine neden olur veya bot tarafından oluşturulan finansal işlemler hisse senedi değerlemelerini etkiler (bu, Ekim 1987’de zaten gerçekleşti).
- uygunluk. Yapay zeka botları daha yaygın hale geldikçe, teknolojiden makinelerin alması uygun olmayan kararlar almasının istenmesi riski artıyor. Yıllar önce bir Eyalet hükümeti, hangi bireylerin ve ailelerin sosyal yardımlardan yararlanmaya hak kazandığını belirlemek için yapay zekayı kullanmak üzere multi-milyon dolarlık bir proje başlattı. Proje kasvetli bir başarısızlıktı. Aynı Eyalette, mahkumların cezalandırılmasını belirleyen bir bilgisayar algoritmasının, birkaç tehlikeli suçluyu yıllar önce serbest bıraktığı bulundu. Kimin çocuklarının geceleri aç yatacağına karar veren makineleri gerçekten istiyor muyuz? Veya tıbbi durumları teşhis etmek ve tedavi önermek? Ya da mahkumlar için cezayı belirlemek? Ya da yatırım kararları almak? Cevap: muhtemelen bir dereceye kadar insan gözetimi olmadan olmaz.
- manipülasyon. İnsanlar yapay zeka tabanlı sohbet robotlarıyla (örneğin, müşteri hizmetleri senaryolarında, uygulamalarda ve İnternet aramalarında) giderek daha fazla etkileşime girmeye zorlandıkça, bu teknolojinin denetleyicileri tarafından manipüle edilmeye veya aldatılmaya karşı daha savunmasız hale gelecekler. Louis Rosenberg bunu, “ikna edici etkileşimli diyalog yoluyla kullanıcıları ikna eden gündem odaklı konuşma tabanlı yapay zeka sistemlerinin hedefli konuşlandırılması yoluyla bireylerin kasıtlı olarak manipüle edilmesi” olarak tanımlıyor.[i] Rosenberg, “yakında kendimizi (a) gerçek insanlardan ayırt edilemeyen, (b) gerçek insanlardan daha fazla güven uyandıran ve (c) şirketler tarafından konuşlandırılabilen yapay zeka odaklı sözcülerle kişiselleştirilmiş görüşmelerde bulacağız” uyarısında bulunuyor. Devlet aktörlerini, ister insanları belirli bir ürünü satın almaya ikna etmek ister belirli bir yanlış bilgiye inanmaya ikna etmek olsun, belirli bir diyalog gündemini takip etmeye yönlendiriyor.” Yapay zekanın gerçek dünyayı anlamadığını daha önce belirtmiştik; doğruyu yanlıştan, doğruyu yanlıştan ayıramaz. Tehlike şu ki, yapay zeka belli olmak böyle şeyler yapabilir. Google’da bir yazılım mühendisi olan Blake Lemoine bile AI botlarının “duyarlılığını” savundu.
- dezenformasyon. Yapay zeka tabanlı botların dezenformasyon oluşturma, yayınlama ve yayma yeteneği çok sayıda insanı endişelendiriyor. Dr. Jeffrey Funk, örneğin, dezenformasyon yüklü sorularla birlikte sağlandığında, ChatGPT’nin saniyeler içinde ikna edici dil bilgisi açısından doğru içerik üretebileceği konusunda uyardı; bu içeriğin yanlış bilgi olarak tanımlanması çok daha zor. Ve botlar bu tür dezenformasyonları saniyeler içinde İnternet’e yayabilir.
- üretkenlik. Muhtemelen yapay zekanın tüm amacı, aynı sayıda insan tarafından daha fazla iş (ve daha yüksek değerli iş) yapılmasını sağlayarak insan üretkenliğini artırmaktır. Ancak Dr. Funk’ın da belirttiği gibi, otomasyon işçi üretkenliğini önemli ölçüde artırmadı. Verimlilik 1948’den 1986’ya ortalama %2,7, ancak 1987’den 2022’ye sadece %2 arttı. Aynı zamanda insanlar artık günde ortalama 6 saatlerini internette gezinmek, oyun oynamak gibi zaman kaybettiren faaliyetlere harcıyor. oyunlar oynamak, video izlemek ve sosyal medyada saçmalamak.[ii]
- İç yüzü. AI robotları, mevcut verileri çeşitli yaratıcı yollarla yeniden birleştirebilir ve yeniden canlandırabilir (makaleler, web sayfaları ve hatta şiirler üretebilirler), ancak sezgisel içgörü yeteneğine sahip değillerdir; yani mevcut bilgiden yeni bilginin yaratılması. Örneğin, yeni kitabımda Veri Modeli Öyküleme, Çevik, İnsan Merkezli Tasarım, Bilişsel Davranış Terapisi, İş Süreçlerini Yeniden Yapılandırma, Paydaş Ekonomisi, hikaye anlatımı (ve diğer yaratıcı sanatlar) dahil olmak üzere bir dizi farklı (ve görünüşte ilgisiz) disiplinden kavramlardan yararlanarak veri modelleme sürecini keşfediyorum. ve Kızılderili Şamanizmi. Bu sadece insan beyninin yapabileceği bir şey ve yapay zekanın karşılayamayacağı bir değer sağlıyor.
- Fikri mülkiyet. Başka bir konu, yapay zekanın fikri mülkiyeti kötüye kullanma eğilimiyle ilgilidir. ChatGPT size fikri mülkiyete saygı duyduğunu ve kaynaklara atıfta bulunduğunu söylese de (sadece sorun!), ChatGPT’nin yayınlanmış kaynaklardaki materyalleri atıf veya onay olmaksızın yeniden canlandırma eğilimi hakkında birkaç kişi yorum yaptı. Kendi durumumda, ChatGPT’nin kitabımdan materyal döndürdüğünü fark ettim. Çevik Veritabanı Oluşturma (örn. “Mantıksal-Fiziksel Bölünme” ve “Sanal Veri Katmanı” terimlerinin tanımları, benim icat ettiğim ve kitapta kullanılan terimler) atıfta bulunmadan veya alıntı yapmadan. Getty Images şu anda en az bir AI satıcısına, ürünlerinin telif hakkıyla korunan görüntüleri atıfta bulunmadan kullanmasına izin verdiği için dava ediyor.
Ancak daha büyük soru, odadaki gerçek fil, yapay zekanın insan işçilerin yerini alıp almayacağı veya neden veya nasıl alabileceği değil, belirli çıkar gruplarının bunu neden istediğidir. Yıllar geçtikçe, deneyimli ve yüksek maaşlı insan bilgi işçilerini yükleniciler, geçici işçiler ve stajyerler gibi daha düşük ücretli “kaynaklarla” değiştirmeye yönelik artan bir baskı gördük. Şimdi aynı bilgi çalışanlarını, ödeme gerektirmeyen, tatil veya hastalık izni almayan ve araba sorunu olmayan AI botlarıyla değiştirmek için bir baskı var. “Uzmanlığın metalaştırılması” olarak adlandırmaya başladığım şey bu. Başka bir deyişle, otomasyonun çalışan üretkenliğini artırmak için değil, bilgi ve uzmanlığı tek kullanımlık metalara dönüştürerek kurumsal karları ve hissedar getirilerini artırmak için kullanıldığı yer.
Kendi başına otomasyona karşı değilim; aslında Çevik Veri yaklaşımımın ilkelerinden biri (kitabımda açıklandığı gibi) Çevik Veritabanı Oluşturma) dır-dir: “Veritabanı geliştirme sürecinin mümkün olduğunca çoğunu otomatikleştirin”[iii]
Ancak otomasyonun amacı asla insan düşüncesinin yerini almak değil, insan düşüncesinin daha yüksek değerli faaliyetlere yönlendirilmesine izin vermek olmalıdır.
Herhangi bir biçimde metalaştırma, yalnızca sıradanlığa ve daha yüksek değerli ürün ve hizmetlerin daha düşük değerli olanlarla değiştirilmesine yol açar. Herhangi bir markete gittiğinizde, raflardan çekilen ve daha düşük değerli jenerik “mağaza markaları” ile değiştirilen daha yüksek değerli markalı ürünlerin giderek arttığını göreceksiniz. Gittikçe daha fazla teknolojinin daha yaygın bir parçası haline gelen yapay zekadan bekleyebileceğimiz şey budur: genel düşünce, genel fikirler ve genel uzmanlık. Herhangi bir şey hakkında düşünmek veya anlamakla uğraşmak zorunda kalmamak için ödevlerini yazmak için ChatGPT’yi kullanacak vasat öğrencilerin teslim ettiği türden bir C-çalışması.
ChatGPT ve benzeri yapay zeka botları, daha yüksek kurumsal karlar peşinde koşan entelektüel “dibe doğru yarışımızı” körüklemeye katkıda bulunduğu ölçüde, onlar (ve yaratıcıları) insanlığa çok büyük bir kötülük yapacaklardır.
[i]
Rosenberg, Louis. “Konuşmalı Yapay Zekanın Derin Tehlikesi”. VentureBeat blog gönderisi, 4 Şubat 2023. https://venturebeat-com.cdn.ampproject.org/c/s/venturebeat.com/ai/the-profound-danger-of-conversational-ai/amp/.
[ii]
Funk, Dr. Jeffrey ve Gary Smith. “Büyük Dil Modelleri Eğlendirebilir Ama Yararlı mı?”. Mind Matters News (çevrimiçi blog). 16 Ocak 2023. https://mindmatters.ai/2023/01/large-language-models-can-entertain-but-are-they-useful/.
[iii]
Yanıklar, Larry. Çevik Veritabanı Oluşturma (New Jersey: Technics Publications, 2011), s. 70-76.