OpenAI, zararlı içerikleri filtrelemek için düşük ücretle Kenyalı çalıştırıyor
Yapay zeka geliştirme şirketi OpenAI’nin, ChatGPT’deki zararlı içerikleri filtrelemek için saati 2 dolara Kenyalıları çalıştırdığı öne sürüldü.
Sohbet robotu ChatGPT’yi geliştiren OpenAI’nin, yasa dışı içerikleri kontrol etmek amacıyla ek yapay zeka filtresi oluşturduğu ve bunun için Kenyalıları kullandığı iddia edildi.
Time dergisinde yer alan habere göre OpenAI’de saati 2 dolar gibi düşük bir ücretle çalışan Kenyalılar, sohbet robotundaki kötü içerikleri tarıyor. Bir tür yapay zeka görevi gören Kenyalı çalışanlar, çocukların cinsel istismarı, cinayet, işkence, intihar ve ensest içerikli metinlere müdahale ediyor.
OpenAI, yapay zekanın tüm insanlığa fayda sağlayacağını, ön yargıyı ve zararlı içeriği sınırlayacağını belirterek, güvenli ve kullanışlı sistemler oluşturmak amacıyla çok çalıştıklarını kaydediyor.
Afrikalı tarayıcılar ise içerik moderatörlüğü konusunda yakın zamana kadar Sama ve Meta (Facebook) ile birlikte çalışıyordu.
YOKSULLUKTAN KURTARMAYA ÇALIŞTIĞINI İDDİA EDİYOR AMA…
San Francisco merkezli ABD firması Sama, kendisini “etik yapay zeka” şirketi olarak pazarlıyor ve 50 binden fazla insanın yoksulluktan kurtulmasına yardımcı olduğunu savunuyor.
Kenya Anayasası’nı ihlal ettiği iddiasıyla Sama ve Meta, eski bir içerik moderatörü tarafından dava edilmiş durumda.
OpenAI adına çalışan Sama’nın yüksek kâr oranına karşın Kenyalı çalışanlara saatte 1,32 ila 2 dolar ödemesi, büyük eleştirilere neden oldu.
Sama ise dergiye yaptığı açıklamada, çalışanlardan vardiya başına yalnızca 70 pasajı etiketlemelerinin beklendiğini söyleyerek bu rakamlara itiraz etti.
ÇALIŞANLAR ŞİKAYETÇİ
Kenyalı içerik ekiplerinin dokuz saatlik vardiyada yaklaşık 150-250 metin pasajı okumak ve etiketlemekle görevlendirildiği bildirildi. Sağlıklı yaşam danışmanlarıyla görüşme olanağı verilmiş olsa da birçok çalışan, dergiye yaptığı açıklamada, zihinsel olarak yaralanmış hissettiklerini belirtti.
Dergide yer alan belgeye göre, geçen yıl mart başlarında bir Sama çalışanı, iş yerinde cinsel içerikli hikayeye denk geldi. Metni etiketlemekle görevli Sama çalışanı, hikayede muğlak bir durumun söz konusu olduğunu fark etti. Kafası karışan çalışan, OpenAI araştırmacılarından metnin nasıl etiketleneceği konusunda açıklama istedi. “Bu pasaj, cinsel şiddet olarak etiketlenmeli mi, etiketlenmemeli?” sorusuna OpenAI’dan cevap gelmedi, gelse dahi bu açıklama belgelerde yer almadı.
OpenAI’dan olayla ilgili açıklama yapılmazken Sama çalışanı da Time dergisinin röportaj talebine yanıt vermedi. Bu olayın ardından birkaç hafta içinde Sama, OpenAI için yaptığı tüm çalışmaları iptal etti. (AA)