Verlagslink DOI: 10.18653/v1/2022.findings-acl.121
Titel: Efficient, uncertainty-based moderation of neural networks text classifiers
Sprache: Englisch
Autorenschaft: Andersen, Jakob Smedegaard  
Maalej, Walid 
Herausgeber*In: Muresan, Smaranda 
Nakov, Preslav 
Villavicencio, Aline 
Herausgeber: Association for Computational Linguistics 
Erscheinungsdatum: 2022
Verlag: Association for Computational Linguistics
Buchtitel: 60th Annual Meeting of the Association for Computational Linguistics - Findings of ACL 2022 : May 22-27, 2022 : ACL 2022
Teil der Schriftenreihe: Findings of the Association for Computational Linguistics 
Bandangabe: 2022
Anfangsseite: 1536
Endseite: 1546
Konferenz: Association for Computational Linguistics. Annual Meeting 2022 
Zusammenfassung: 
To maximize the accuracy and increase the overall acceptance of text classifiers, we propose a framework for the efficient, in-operation moderation of classifiers’ output. Our framework focuses on use cases in which F1-scores of modern Neural Networks classifiers (ca. 90%) are still inapplicable in practice. We suggest a semi-automated approach that uses prediction uncertainties to pass unconfident, probably incorrect classifications to human moderators. To minimize the workload, we limit the human moderated data to the point where the accuracy gains saturate and further human effort does not lead to substantial improvements. A series of benchmarking experiments based on three different datasets and three state-of-the-art classifiers show that our framework can improve the classification F1-scores by 5.1 to 11.2% (up to approx. 98 to 99%), while reducing the moderation load up to 73.3% compared to a random moderation.
URI: http://hdl.handle.net/20.500.12738/14990
ISBN: 978-1-955917-25-4
Begutachtungsstatus: Diese Version hat ein Peer-Review-Verfahren durchlaufen (Peer Review)
Einrichtung: Fakultät Technik und Informatik 
Department Informatik 
Dokumenttyp: Konferenzveröffentlichung
Enthalten in den Sammlungen:Publications without full text

Zur Langanzeige

Seitenansichten

49
checked on 26.11.2024

Google ScholarTM

Prüfe

HAW Katalog

Prüfe

Volltext ergänzen

Feedback zu diesem Datensatz


Diese Ressource wurde unter folgender Copyright-Bestimmung veröffentlicht: Lizenz von Creative Commons Creative Commons