06 Eylül 2021, 09:02 | #1 |
Çocuk istismaırını önlemek için, Apple, iPhone fotoğraflarını tek tek gözden geçirmek istiyor
Çocuk istismaırını önlemek için, Apple, iPhone fotoğraflarını tek tek gözden geçirmek istiyor
Apple, iPhone fotoğraflarını tarayacağını söyleyerek büyük bir tartışmaya yol açmıştı. Birçok kişi bunun veri ihlalleri yaratacağını düşünüyordu. ABD’li teknoloji devi Apple ise çocuk istismarını engellemek için böyle bir karar aldıklarını ifade etti. Böylece fotoğrafların taranması hiç kimsenin itiraz edemeyeceği bir zemine oturtuldu. iPhone iCloud platformuna yüklenen fotoğraf ve videolar Apple tarafından tek tek taranabilecek. Böylece çocuk istismarı ihtimali bulunan fotoğraflar hızlı bir şekilde kolluk kuvvetlerine bildirilecek. Apple ilk etapta bu özelliği hemen uygulayacağını ifade etti. Ancak aldığı yeni karar ile birlikte bu sistemi erteledi. Yapılan açıklamalara bakıldığında Apple şirketinin bu sistemi çok daha kararlı hale getirmek için ertelediği ifade ediliyor. CSAM olarak bilinen sistem yapay zeka yardımıyla tüm fotoğraf ve videoların gözden geçirilmesini sağlıyor. Burada yer alan bazı küçük detaylar sayesinde çocuk istismarı olup olmadığı ortaya çıkıyor. Her ne kadar olumlu bir gelişme gibi görünse bile aslında veri ihlallerine yol açma ihtimali son derece yüksek. Kullanıcılar fotoğraf ve videolarının taranmasını istemiyor. Ancak Apple böyle bir şey şart koşunca ne yazık ki yerine getirmek zorunda kalacaklar. iCloud platformuna yüklenecek tüm fotoğraf ve videolar yapay zeka taramasından geçecek. |
|
|
06 Eylül 2021, 19:09 | #2 |
Yani amaç güzel de yöntem biraz tuhaf
________________
|
|
|
06 Eylül 2021, 19:23 | #3 |
Ozelimiz de kalmadı peh. Bahaneye bak.d
________________
۰۪۫.۪۫۰𝓑𝓪𝔃𝓲 𝓲𝓷𝓼𝓪𝓷𝓵𝓪𝓻 ,𝓫𝓪𝔃𝓮𝓷 𝓲𝓷𝓼𝓪𝓷𝓵𝓪𝓻۰۪۫.۪۫۰ 𝑪𝒊𝒌𝒂𝒓 𝒊𝒍𝒊𝒔𝒌𝒊𝒍𝒆𝒓𝒊𝒏𝒊𝒛 , 𝒔𝒂𝒉𝒕𝒆 𝒅𝒐𝒔𝒕𝒍𝒖𝒌𝒍𝒂𝒓𝒊𝒏𝒊𝒛 𝒎𝒊𝒅𝒆𝒎𝒊 𝒃𝒖𝒍𝒂𝒏𝒅𝒊𝒓𝒊𝒚𝒐𝒓 ۰۪۫.۪۫۰𝓟𝓱𝓸𝓮𝓷𝓲𝔁۰۪۫.۪۫۰
|
|
|
Şu anda bu konuyu görüntüleyen etkin kullanıcılar: 1 (0 üye ve 1 ziyaretçi) | |
|
|