Sızdırılan belgeler, yapay zekanın aslında nasıl geliştirildiğini ortaya koydu

Yapay Zeka Gelişiminde İnsan Emeği Unutulmamalı!

Yapay zeka teknolojilerinin ilerlemesinde büyük önemi olan insan emeği, genellikle göz ardı edilmektedir. Özellikle yapay zeka algoritmalarını eğitmek için kullanılan veri etiketleme süreci, metin, ses ve video gibi içeriklerin insanlar tarafından elle işlenmesini içerir. Bu süreç genellikle düşük ücretle çalışan serbest çalışanlar tarafından, özellikle Filipinler, Pakistan, Kenya ve Hindistan gibi ülkelerde gerçekleştirilmektedir.

Veri etiketleyicileri, yoğun ve tekrarlayan işlerin yanı sıra nefret söylemleri, şiddet içeriği ve cinsel materyalleri ayıklama gibi zorlayıcı görevlerle karşı karşıyadır.

İç Yönergelerin Şaşırtıcı Detayları!

ABD merkezli Inc. dergisi tarafından dile getirilen bir belge, veri etiketleme firması Surge AI’nın içerik moderasyonuna dair yönergelerini gün yüzüne çıkardı. Belgede, birçok alanda etik kuralların tanımlandığı görülmektedir; tıbbi tavsiyelerden cinsel içeriklere, nefret söyleminden şiddete kadar geniş bir yelpazede.

Surge AI, büyük dil modelleri (LLM) geliştiricilerine doğrudan hizmet veren bir taşeron şirket olarak faaliyet göstermektedir. Şirketin yan kuruluşu DataAnnotation.Tech üzerinden istihdam edilen veri etiketleyicilerinin karşı karşıya kaldığı karmaşık etik kararlar, sızdırılan belgelerde açıkça görülmektedir.

Etiğin Yönü, Yoksul Ülkelerdeki Emekçilerle Şekilleniyor!

Belgeler, yapay zeka sistemlerinin etik sınırlarının genellikle yoksul bölgelerde çalışan insanların kararlarıyla belirlendiğini göstermektedir. Bu kişilerden neredeyse imkansız beklentilerde bulunulmaktadır; çünkü her türlü senaryoyu önceden tahmin etmeleri gerekmektedir.

Suç tanımının ülkelere göre değişkenlik göstermesi, etik konularda net sınırların belirlenmesini zorlaştırmaktadır. Örneğin, dolaylı içeriklere izin verilirken direkt soruların yanıtsız bırakılması gibi durumlar etik kararları zorlaştırmaktadır.

Surge AI’dan Açıklama Geldi!

Surge AI, belgelerin sızdırılmasının ardından yaptığı açıklamada, kılavuzun birkaç yıl öncesine ait olduğunu ve yalnızca iç araştırma amacıyla hazırlandığını belirtti. Şirket, güvenliği öğrenmek için modellerin riskleri tanıması gerektiğini belirtirken, uzmanlar yapay zeka sistemlerinin gerçekte düşük ücretle çalışan emekçilerin üzerine dayandığını vurgulamaktadır.

Related Posts

Trump’tan TikTok’a gözdağı: Satılmazsa ABD’de yasaklanabilir

ABD Başkanı Donald Trump, TikTok’un satış sürecinde ilerleme sağlanamaması durumunda uygulamanın ülkede tamamen yasaklanabileceğini açıkladı.

Araştırmacıların ağzı açık kaldı: Google, Antik Roma’nın sırrını çözüyor

Google’ın geliştirdiği “Aeneas” adlı yapay zeka aracı, Antik Roma yazıtlarını okuyabilecek.

Otomotiv devi binlerce aracını geri çağırıyor: Sebebi belli oldu

Alman otomobil üreticisi Mercedes-Benz’in, hava yastıklarındaki sorun nedeniyle dünya genelinde yaklaşık 223 bin ticari aracını geri çağıracağı bildirildi.

Android’te sinsi tehlike: Kullanıcıların verilerini çalıyor

Avrupa’nın önde gelen teknoloji üniversitelerinden TU Wien’deki araştırmacılar, Android işletim sistemini hedef alan yeni bir siber saldırı yöntemini açığa çıkardı. “TapTrap” adı verilen bu yöntemle hackerlar, arka planda görünmeyen bir uygulama …

Yağmur Drone’ları durdurabilir mi? İşin uzmanları anlatıyor

Gökyüzünü fetheden drone teknolojisi, tarımdan arama-kurtarmaya, film çekiminden lojistiğe kadar birçok alanda vazgeçilmez bir araç haline geldi. Ancak yağmurlu havalarda drone uçurmak, hem cihazın güvenliği hem de uçuş performansı açısından ciddi …

Bilim dünyasını karıştıran ışık: İnsan beyninin geceleri parladığı ortaya çıktı

İnsan beyni, içten içe ışık saçıyor! Bilim insanları, beynin kendiliğinden yaydığı bu gizemli ışığın kaynağını ve anlamını çözmeye çalışıyor. Bu keşif, nörolojik hastalıkların tedavisi için umut olabilir.