Apples neue Richtlinien für Kommunikations-Apps im App Store
Apple verschärft die Moderation im App Store: Neue Regeln für anonyme Chats und nutzergenerierte Inhalte. Erfahren Sie, welche Apps betroffen sind und wie Entwickler reagieren müssen.
Apple verschärft die Moderation im App Store: Neue Regeln für anonyme Chats und nutzergenerierte Inhalte. Erfahren Sie, welche Apps betroffen sind und wie Entwickler reagieren müssen.
© A. Krivonosov
Apple hat die Regeln für die Moderation im App Store verschärft. Die neuen Vorgaben betreffen vor allem Kommunikations-Apps und zielen auf Dienste mit anonymen Chats oder nutzergenerierten Inhalten ab. Aus Sicht des Unternehmens bieten diese oft nicht ausreichend Sicherheit.
Gemäß der überarbeiteten Richtlinie behält sich Apple vor, Apps ohne Vorwarnung zu entfernen. Dies gilt, wenn sie die Verbreitung illegaler Inhalte, Fehlinformationen, Mobbing oder anderer schädlicher Interaktionen ermöglichen. Besonderes Augenmerk liegt auf Chats ohne verpflichtende Registrierung, Moderationstools und Meldesysteme.
Die Firma betont, dass Entwickler Nutzerinhalte aktiv überwachen müssen. Dazu gehören automatisierte und manuelle Moderationssysteme sowie eine schnelle Reaktion auf Beschwerden. Apps, die diese Anforderungen nicht erfüllen können, riskieren eine Entfernung aus dem Store.
Die neuen Regeln könnten beliebte Plattformen für anonyme Kommunikation ernsthaft treffen. Das gilt insbesondere für Dienste, die auf den freien Nachrichtenaustausch ohne Nutzeridentifikation setzen. Apple hat zwar nicht konkret benannt, welche Apps zunächst betroffen sein könnten. Dennoch rät das Unternehmen Entwicklern, ihre Dienste dringend an die aktualisierte Policy anzupassen.