Enplace de l’extrait déprécisé : ArXivLabs présente une nouvelle fonctionnalité expérimentale développée en collaboration avec des contributeurs pour améliorer la recherche et l’analyse sur leur plateforme. Cette initiative permet aux individus et organisations qui travaillent avec ArXivLabs de créer et partager directement sur le site Web des arXiv nouveaux outils basés sur les valeurs d’ouverture, communauté, excellence et respect du privécy des données personnelles.
Avec l’esprit d’innovation en tête et la volonté de servir au mieux le public scientifique, ArXiv invite toute personne ou organisation ayant une idée pour un projet qui ajouterait de valeur à leur communauté à [se familiariser avec les arXivLabs](https://info.arxiv.org/labs/index.html).
[Quels auteurs de cette publication sont des endorseurs ?](https://authors.elsevier.com/authorlist%3Fsearchtype=affiliation_or_institute&query=%2526amp;sortby=lastname) |[Désactiver MathJax ](javascript:setMathjaxCookie()) ([Que représente MathJax ?](https://info.arxiv.org/help/mathjax.html))
* [À propos](https://info.arxiv.org/about)
* [Aide](https://info.arxiv.org/help)
* contact arXivCliquez pour contacter arXiv [ Contact](https://info.arxiv.org/help/contact.html)
* abonnez-vous aux bulletins d’informationArXiv [ Abonnez-vous](https://info.arxiv.org/help/subscribe)
* [Copyright](https://info.arxiv.org/help/license/index.html)
* [Politique de confidentialité](https://info.arxiv.org/help/policies/privacy%5Fpolicy.html)
* [Aide pour accès web accessible](https://info.arxiv.org/help/web%5Faccessibility.html)
* [Statut opérationnel d’ArXiv ](https://status.arxiv.org)
Obtenez des alertes sur l’état via[courriel](https://subscribe.sorryapp.com/24846f03/email/new) ou [slack](https://subscribe.sorryapp.com/24846f03/slack/new)
—
Title: Enhancing Text Summarization for Scientific Literature with Multiple Knowledge Sources and Pretrained Language Models
Authors: Papaefthymios Panagiotou, Georgios Evangelidis, Dimitrios Tsatsoulis, Christos Papadopoulos
Abstract: Abstract text summarization is a fundamental task in information retrieval that aims to provide concise yet comprehensive representations of the original content. In this paper we propose an approach combining multiple knowledge sources with pretrained language models (PLMs) for generating improved scientific literature summaries. We experimentally evaluate our method on two popular datasets, namely SciSumm and BioASQ-SummaryTask2016, achieving state-of-the-art results in both cases while providing insights into the benefits of incorporating external knowledge sources to enhance PLM performance.
Published: 30 June 2023
DOI: arXiv:2306.14857
URL:\href{https://arxiv.org/abs/2306.14857}{https://arxiv.org/abs/2306.14857}
Complete Article after the Jump: Here!