Xbox hat gestern ihren dritten Transparency Report veröffentlicht, der Einblicke in die fortlaufenden Bemühungen des Unternehmens gibt, ein sicheres und einladendes Umfeld für die Gaming-Community zu schaffen. Der Report unterstreicht die Kombination von menschlichen und KI-basierten Moderationsmethoden, die auf der bereits geleisteten Arbeit aufbauen.
Das Hauptziel von Xbox ist es, eine Plattform zu bieten, auf der sich alle Spieler wohlfühlen und geschützt sind. Präventive Maßnahmen wurden eingesetzt, um unerwünschte Inhalte und Verhaltensweisen zu minimieren, wobei 87 Prozent der Durchsetzungsmaßnahmen aus proaktiven Moderationsanstrengungen stammen.
Aus dem Report von Januar bis Juni 2023 geht hervor:
- Die Nutzung von KI-Modellen wie Community Sift und Turing Bletchley v3, die auf menschlichen Erkenntnissen basieren und Milliarden von Interaktionen analysieren, um schädliche Inhalte zu erkennen.
- Einführung eines neuen Datensatzes „Toxicity Prevented“, der die Effektivität bei der Verhinderung schädlicher Inhalte zeigt. In einem gemessenen Zeitraum wurden über 4,7 Millionen Inhalte blockiert, bevor sie die Community erreichen konnten.
- Verstärkte Maßnahmen gegen Belästigung und Mobbing, mit einer Steigerung der proaktiven Durchsetzungsmaßnahmen um 95 Prozent gegenüber dem vorherigen Zeitraum.
- Die Analyse des Verhaltens von Spielern nach Ermahnungen zeigt, dass die meisten die Community-Standards respektieren und sich positiv engagieren.
Weitere Informationen zu den jüngsten Sicherheitsmaßnahmen von Xbox, einschließlich des Voice Reporting-Features, des Strike-Enforcement-Systems und der Partnerschaft zwischen Minecraft und GamerSafer, finden sich im Beitrag auf Xbox Wire DACH.