През август 2021 г. Apple разкри плановете си да сканира iPhone за изображения на сексуално насилие над деца. Този ход предизвика овации от групите за закрила на детето, но предизвика опасения сред експертите по поверителност и сигурност, че функцията може да бъде злоупотребена.
Първоначално Apple планира да включи в iOS 15 технологията за сканиране на материал за сексуална злоупотреба с деца (CSAM); вместо това той за неопределено време забави пускането на функцията, за да поиска обратна връзка преди пълното й пускане.
И така, защо функцията за откриване на CSAM стана обект на разгорещен дебат и какво накара Apple да отложи разпространението си?
Какво прави функцията за сканиране на снимки на Apple?
Apple обяви да внедри функцията за сканиране на снимки с надеждата да се бори със сексуалното насилие над деца. Всички снимки в устройствата на потребителите на Apple ще бъдат сканирани за педофилично съдържание, използвайки алгоритъма „NueralHash“, създаден от Apple.
В допълнение, всички устройства на Apple, използвани от деца, биха имали функция за безопасност, която автоматично замъгляване на снимки за възрастни, ако е получено от дете, и потребителят ще бъде предупреден два пъти, ако се опита да отвори тях.
Освен минимизиране на излагането на съдържание за възрастни, ако родителите регистрират устройствата, собственост на децата им допълнителна безопасност, родителите ще бъдат уведомени, в случай че детето получи изрично съдържание от никого на линия.
Прочетете още: Какво трябва да знаете за защитата на децата за безопасност на Apple
Що се отнася до възрастните, използващи Siri, за да търсят всичко, което сексуализира децата, Siri няма да направи това търсене и вместо това ще предложи други алтернативи.
Данните от всяко устройство, съдържащо 10 или повече снимки, считани за подозрителни от алгоритмите, ще бъдат декриптирани и подложени на човешки преглед.
Ако тези снимки или други в устройството се окажат, че съответстват на нещо от предоставената от Национален център за изчезнали и експлоатирани деца, той ще бъде докладван на властите и акаунтът на потребителя ще бъде спрян.
Основни притеснения относно функцията за сканиране на снимки
Функцията за откриване на CSAM щеше да заработи с пускането на iOS 15 през септември 2021 г., но в лицето от широкото възражение, Apple реши да отдели повече време за събиране на обратна връзка и подобряване на това отличителен белег. Ето го Пълното изявление на Apple относно закъснението:
„Миналия месец обявихме планове за функции, предназначени да помогнат за защита на децата от хищници, които използвайте комуникационни инструменти, за да ги вербувате и експлоатирате, и да ограничите разпространението на сексуална злоупотреба с деца Материал.
Въз основа на обратна връзка от клиенти, застъпнически групи, изследователи и други, решихме да отделим допълнително време следващите месеци, за да съберем информация и да направим подобрения, преди да пуснем тази изключително важна безопасност на децата Характеристика".
Почти половината от притесненията, свързани с функцията за сканиране на снимки на Apple, се въртят около поверителността; останалите аргументи включват вероятната неточност на алгоритмите и потенциалната злоупотреба със системата или нейните вратички.
Нека го разделим на четири части.
Потенциална злоупотреба
Знаейки, че всеки материал, съответстващ на детска порнография или известни изображения на сексуално насилие над деца, ще вкара устройство в „подозрителния“ списък, може да задейства киберпрестъпниците.
Те могат умишлено да бомбардират човек с неподходящо съдържание чрез iMessage, WhatsApp или други средства и да спрат профила на това лице.
Apple увери, че потребителите могат да подадат жалба в случай, че акаунтите им са спрени поради недоразумение.
Вътрешна злоупотреба
Въпреки че е предназначена за благосклонна кауза, тази функция може да се превърне в пълно бедствие за определени хора, ако техните устройства са регистрирани в системата, със или без тяхно знание, от роднини, заинтересовани да следят тяхната комуникация.
Дори и това да не се случи, Apple е създала задна врата, за да направи данните на потребителите достъпни в края на деня. Сега е въпрос на мотивация и решителност хората да имат достъп до личната информация на други хора.
Свързани: Какво представлява задната врата и какво прави?
Това не само улеснява сериозно нарушаване на поверителността, но и проправя пътя за злоупотреба, токсичност или контрол роднини, настойници, приятели, любовници, полагащи грижи и бивши, за да нахлуят допълнително в нечие лично пространство или да ограничат тяхното свобода.
От една страна, това е предназначено за борба със сексуалното насилие над деца; от друга, може да се използва за по -нататъшно увековечаване на други видове злоупотреба.
Правителствен надзор
Apple винаги се е рекламирала като марка, която е по-съзнателна за поверителността от своите конкуренти. Но сега може да навлезе в хлъзгав склон да се наложи да изпълнява безкрайните изисквания за прозрачност потребителски данни от правителствата.
Системата, която е създала за откриване на педофилично съдържание, може да се използва за откриване на всякакъв вид съдържание на телефони. Това означава, че правителствата с култов манталитет могат да наблюдават потребителите на по -лично ниво, ако го хванат.
Потискащо или не, участието на правителството във всекидневния и личния ви живот може да бъде обезпокоително и да нахлуе в личния ви живот. Идеята, че трябва да се притеснявате за подобни инвазии, само ако сте направили нещо нередно, е погрешно мислене и не вижда гореспоменатия хлъзгав склон.
Фалшиви аларми
Едно от най -големите притеснения при използването на алгоритми за съпоставяне на снимки с базата данни са фалшивите аларми. Алгоритмите за хеширане могат погрешно да идентифицират две снимки като съвпадения, дори когато не са еднакви. Тези грешки, наречени „сблъсъци“, са особено тревожни в контекста на съдържанието за сексуално насилие над деца.
Изследователите откриха няколко сблъсъка в „NeuralHash“, след като Apple обяви, че ще използва алгоритъма за сканиране на изображения. Apple отговори на запитвания относно фалшиви аларми, като посочи, че резултатът ще бъде прегледан от човек в края, така че хората не трябва да се притесняват за това.
Постоянна ли е CSAM паузата на Apple?
Има много плюсове и минуси на предложената функция на Apple. Всеки от тях е оригинален и държи тегло. Все още не е ясно какви конкретни промени Apple може да въведе във функцията за сканиране на CSAM, за да задоволи своите критици.
Това може да ограничи сканирането до споделени iCloud албуми, вместо да включва устройствата на потребителите. Малко вероятно е Apple да се откаже напълно от тези планове, тъй като обикновено компанията не е склонна да се отказва от своите планове.
От широко разпространената реакция обаче и това, че Apple въздържа плановете си, става ясно компаниите трябва да включат изследователската общност от самото начало, особено за непроверени технология.
Децата са основна цел за онлайн хищници и кибертормози. Тези полезни съвети могат да научат родителите как да ги пазят онлайн.
Прочетете Напред
- Сигурност
- IPhone
- Поверителност на смартфона
- Apple
- Онлайн поверителност
- Наблюдение
Фавад е инженер по ИТ и комуникации, амбициозен предприемач и писател. Той излезе на арената на писане на съдържание през 2017 г. и оттогава работи с две агенции за дигитален маркетинг и множество клиенти на B2B & B2C. Той пише за сигурността и технологиите в MUO, с цел да образова, забавлява и ангажира публиката.
Абонирайте се за нашия бюлетин
Присъединете се към нашия бюлетин за технически съвети, рецензии, безплатни електронни книги и изключителни оферти!
Щракнете тук, за да се абонирате