Garantir la qualité des contenus publiés tout en permettant la création de discussions engageantes, une utopie ? Chez Logora, nous assurons une modération stricte des contenus utilisateurs pour s'assurer que seuls les arguments pertinents et bien rédigés soient publiés. Notre système de modération combine outils d'automatisation et revue manuelle pour assurer la bonne tenue des conversations entre utilisateurs. Dans cet article, nous vous détailler le fonctionnement de notre système de modération et vous présenter comment il peut bénéficier à votre publication.
Garantir la qualité du contenu publié sur votre site est à la fois une exigence légale et une responsabilité éditoriale. Chez Logora, nous garantissons des discussions calmes, intéressantes et lisibles en assurant la modération de chaque argument.
Lorsqu'un argument est posté, il est envoyé au système de gestion de la modération, géré par l'équipe de Logora. Notre algorithme de modération créé en interne traite instantanément environ 80% à 85% des arguments. Les 15% à 20% restants sont soumis à une modération manuelle dans les 24 heures pour assurer une précision maximale.
Les arguments qui passent par la modération sont validés par nos outils et nos équipes. Aussi, notre algorithme de pertinence évalue chaque contribution, mettant en avant les arguments les mieux écrits. Cela garantit que les discussions les plus intéressantes sont mises en avant dans votre section de commentaires et donnent envie à d'autres de participer.
Nous avons construit un algorithme de modération en labellisant plus de 85 000 contributions acceptant automatiquement les arguments considérés comme lisibles, bien écrits et non haineux. Lorsque l'algorithme n'est pas sûr de la qualité de l'argument (source inconnue, nouvelles tournures de phrases, nouveaux concepts), l'argument est envoyé à un membre de notre équipe pour modération manuelle. Cela concerne 15 à 20% des arguments. Nous réalisons la modération toutes les 24h en semaine. Les messages en attente sont vus comme publiés par leurs auteurs pour fluidifier leur expérience. Tous nos modérateurs sont natifs et diplômés du supérieur. Nous avons traité plus de deux millions d'arguments pour l'ensemble de nos partenaires avec un taux de réussite de 100% de détection de messages haineux, illisibles et illégaux.
L'algorithme accepte de manière autonome les arguments qui présentent une lisibilité, une structure bien écrite et un contenu non haineux. Les arguments dont la qualité est incertaine (par exemple, source inconnue, nouveaux termes ou concepts) sont traités manuellement par notre équipe de professionnels qualifiés et natifs.
Notre interface de modération est intégrée dans votre espace d'administration, favorisant la transparence et la collaboration. Notre équipe assure le bon fonctionnement de la modération, et vous avez la possibilité d'intervenir et d'accepter ou de rejeter les contributions si vous le souhaitez.
Dans cet exemple, vous pouvez voir une liste d'arguments passés par l'algorithme de modération : certains sont automatiquement acceptés, d'autres rejetés et en attente.
Un faible score de modération signifie que l'algorithme considère l'argument comme sûr. Un score de modération élevé signifie que ce type d'argument est inconnu ou a été rejeté.
Notre plateforme offre la possibilité d'une modération en un clic, pour simplifier la gestion de nos équipes et des vôtres, si vous souhaitez vous en charger.
L'objectif est de donner aux équipes de modération les outils dont elles ont besoin pour gérer leur charge de travail sans effort et de manière efficace. D'un simple clic, les modérateurs peuvent accepter, rejeter ou ignorer des arguments dans la file d'attente de modération.
Dans les cas où un rejet est nécessaire, les modérateurs peuvent fournir une étiquette descriptive, expliquant la raison de la décision. En outre, les modérateurs ont la possibilité d'ajouter des notes, ce qui permet une communication transparente entre les membres de l'équipe.
Ces notes peuvent servir à diverses fins, par exemple pour signaler un contenu susceptible d'être approuvé ou pour mettre en garde contre des utilisateurs dont les commentaires sont douteux. L'avantage de notre vue de modération est que plusieurs membres de l'équipe peuvent modérer en même temps, ce qui garantit que les arguments ne doivent être modérés qu'une seule fois, ce qui permet de gagner du temps et d'économiser des ressources.
Pour rendre votre espace de contribution plus intéressant, nous avons développé un algorithme de "pertinence" mettant en évidence les arguments les mieux rédigés. Plutôt que de juger le fond des arguments, nous nous concentrons sur leur forme et leur structure pour les distinguer.
Notre algorithme évalue quatre indicateurs clés pour calculer la qualité du texte:
- Longueur du texte
- Pourcentage de majuscules
- Pourcentage de caractères de ponctuation
- Pourcentage de fautes de grammaire ou d'orthographe
Nous nous appuyons sur la bibliothèque Open Source LanguageTool pour évaluer avec précision les fautes de grammaire et d'orthographe. Le score de pertinence final intègre ces indicateurs, fournissant une mesure objective de la qualité des arguments.
Alors que l'algorithme détermine le score de pertinence initial, les votes des utilisateurs influencent également le score final. Le score d'un argument est calculé à l'aide de la formule suivante : S(x,y) = x + (y/100)^1.1 * (1 - x), où x est la note de qualité et y représente le nombre de votes. Cette approche impartiale garantit que les arguments longs et bien rédigés et les arguments plus courts et moins développés ont une chance égale de recevoir un engagement.
Chez Logora, notre système de modération donne la priorité à la qualité du contenu, garantissant ainsi des discussions engageantes et bien rédigées sur votre plateforme. En combinant algorithmie et expertise humaine, nous garantissons le bon fonctionnement de la modération tout en favorisant les conversations informatives. Notre approche transparente et collaborative vous permet de garder le contrôle tout en bénéficiant de notre expertise en matière de modération.