コミュニティでフラグ付きコンテンツを処理する方法は? [閉まっている
-
11-10-2019 - |
質問
ほとんどユーザーが生成したコンテンツのみを備えた多言語コミュニティでは、フラグ付きコンテンツ(冒とく、人種差別、一般的な違法なものなど)を扱うための一般的に使用される方法はありますか?
英語以外のコンテンツがたくさんあるので、フラグを処理する唯一の方法は、コミュニティ自体がクラウドソーシングし、フラグ付きのものをしきい値で自動的に非表示/削除することです。しかし、虐待を止めるためにどのような方法を使用できますか?たとえば、「私は彼が好きではありません、すべてを報告して削除してもらいましょう」
解決
考慮する別のオプションは、ユーザーが他のユーザーを「非表示」できるようにすることです。つまり、非表示のユーザーのコンテンツが表示されません。
これにより、人々はコミュニティに貢献していないと感じている他のユーザーを「削除」することができます。
また、ユーザーが悪い投稿を報告し、人が投稿を非表示または削除するかどうかを決定できるようにすることもできます。これが効果的であるためには、コミュニティルールが必要です。
他のヒント
まず、コンテンツに依存します。
しかし、一般的に、私はフラグ付きのものをしきい値で非表示/削除することから始めます。
コミュニティが成長すると、クラウドソーシングを追加し、両方からバランスを作成します。
また、すべての投稿で一般的なスキャンを行い、悪いコンテンツをリードまたは含める可能性のあるキーワードを検索します。
また、一部の投稿には違法なものへの言及が含まれているが、神の理由を目的としているため、寛容を作成する必要があります。
例:薬を服用しないでください
コミュニティがうまく構築されている場合、私は主にそれに依存します。
所属していません StackOverflow