Apple CSAM
Снимка: cottonbro from Pexels

Apple забавя обявените миналия месец нови функции за защита на децата (CSAM), предават световните медии. Поводът е вълна от критики и серия от протести, предимно заради доста противоречивата функция, която трябваше да сканира снимките на потребителите за материали за сексуално насилие над деца. Според критиките, промените могат да намалят поверителността на потребителите. Въпросните промени трябваше да бъдат въведени по-късно тази година.

Новината, че Apple може да търси в частно съхраняваните снимки в iCloud детска порнография на пръв поглед изглеждаше добре. За жалост, снимки от т. нар. „тъмна среда на детската порнография“ все още циркулират на много места. На второ четене обаче идеята не изглежда толкова страхотна.

„Миналия месец обявихме планове за функции, предназначени да помогнат за защита на децата от педофилите, които използват комуникационни инструменти, за да ги набелязват и експлоатират, ние искахме да ограничим разпространението на материали, свързани със сексуална злоупотреба с деца“, заяви Apple в изявление пред The Verge.

„Въз основа на обратна връзка от клиенти и различни групи, съсловия и организации, ние решихме да отделим допълнително време през следващите месеци, за да съберем повече информация и да направим подобрения, преди да пуснем тези изключително важни функции за безопасност на децата“, допълват от компанията.

Към момента промотираните промени, които трябва да ограничат съдържанието на детска порнография се състоят от три части. Едната е свързан със Apple Search и Siri, които ще подпомагат за предотвратяване на CSAM, ако даден потребител търси подобна информация. Втората предвижда, когато децата получават или изпращат откровено сексуални снимки – те да бъдат замъглени. А третата е сканиране на въпросните изображения, съхранявани в iCloud Photos и тяхното докладване на модераторите на Apple.

Според компанията нищо от това не отслабва поверителността на потребителите. И все пак много експерти по поверителност и защита на личните данни отправят силни критики към новата система и дори твърдят, че тя би могла да създаде система за наблюдение на устройствата, съответно и на хората.

Вижте още:
Новата технология на Apple – CSAM породи опасения за шпиониранеApple обяви създаването на система за откриване на материали за сексуално насилие над деца (CSAM), к…Aug 6 2021skafeto.com

Apple залага на камерите в iPhone 13Следващото поколение на iPhone ще зарадва потребителите с поне три значими подобрения в камерата за …Aug 10 2021skafeto.com

Как се промени Apple след ерата Стив Джобс?Когато Тим Кук пое ролята на главен изпълнителен директор на Apple, това бе преход като никой друг. …Aug 29 2021skafeto.com


loading...