
W zeszłym miesiącu Apple ogłosił kilka nowych, mających zapewnić bezpieczeństwo dzieci i osób nieletnich, przed pornografią dziecięcą. Wykrywanie jej z wykorzystaniem baz systemu CSAM w zdjęciach iCloud wzbudziło szereg kontrowersji. Apple poinformowało że „poświęci dodatkowy czas”, aby udoskonalić te funkcje przed ich publicznym udostępnieniem. Nie podano nowej daty.
iOS/iPadOS 15 i macOS Monterey będą chroniły nas i nasze dzieci przed pornografią
W oświadczeniu dla serwisu 9to5Mac Apple powiedziało:
„W zeszłym miesiącu ogłosiliśmy nasze plany dotyczące funkcji, które mają pomóc chronić dzieci. W oparciu o informacje zwrotne od klientów, grup poparcia, badaczy i innych podmiotów, zdecydowaliśmy się poświęcić dodatkowy czas w nadchodzących miesiącach na zebranie dalszych opinii i wprowadzenie ulepszeń przed wydaniem tych, niezwykle ważnych dla świata, funkcji bezpieczeństwa”.
To już kolejne z zapowiedzianych w iOS i iPadOS 15 funkcji, których Apple nie wdroży wraz z premierą systemów na jesieni tego roku1. Zdecydowanie firma stała się bardziej ostrożna, a nadchodzące systemy ustanowiły historyczny rekord Apple pod względem wstrzymanych do pierwszego wydania funkcjonalności.
Jeśli artykuł Apple opóźnia wdrożenie wykrywania pornografii dziecięcej (CSAM) nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.