Сучасні підходи до використання баз знань для вирішення проблем великих мовних моделей
DOI:
https://doi.org/10.18523/2617-3808.2024.7.98-101Ключові слова:
ВММ, база знань, галюцинації, RAGАнотація
Розглянуто можливості інтеграції великих мовних моделей (ВММ) із базами знань для підвищення точності й надійності їхніх відповідей. Визначено переваги такого поєднання, зокрема зменшення ризику галюцинацій — генерування неправильної або вигаданої інформації. Проаналізовано різні підходи до об’єднання ВММ із базами знань, їхні сильні та слабкі сторони. Обговорено перспективи та виклики у застосуванні цієї технології в різних галузях, зокрема інформаційний пошук, підтримку прийняття рішень та автоматизоване створення контенту. Стаття надає огляд сучасного стану досліджень у цій сфері та окреслює напрями для подальшого вивчення.
Посилання
- Cooper, N., & Scholak, T. (n. d.). Perplexed: Understanding When Large Language Models are Confused. arXiv.org. https://doi.org/10.48550/arxiv.2404.06634.
- Min, B., Ross, H., Sulem, E., Veyseh, A. P. B., Nguyen, T. H., Sainz, O., Agirre, E., Heintz, I., & Roth, D. (2023). Recent Advances in Natural Language Processing via Large Pre-Trained Language Models: A Survey. ACM Computing Surveys. https://doi.org/10.1145/3605943.
- Nayak, A., & Timmapathini, H. P. (2023). LLM2KB: Constructing Knowledge Bases using instruction tuned context aware Large Language Models. arXiv.org. https://doi.org/10.48550/arxiv.2308.13207.
- Ranaldi, L., Zanzotto, F. M., Onorati, D., Venditti, D., & Ruzzetti, E. S. (2023). A Trip Towards Fairness: Bias and De-Biasing in Large Language Models. arXiv.org. https://doi.org/10.48550/arxiv.2305.13862.
- Wang, H., Zhao, S., Qiang, Z., Li, Z., Liu, C., Xi, N., Du, Y., Qin, B., & Liu, T. (2024). Knowledge-tuning Large Language Models with Structured Medical Knowledge Bases for Trustworthy Response Generation in Chinese. ACM Transactions on Knowledge Discovery from Data. https://doi.org/10.1145/3686807.
- Yang, L., Chen, H., Li, Z., Ding, X., & Wu, X. (2024). Give Us the Facts: Enhancing Large Language Models with Knowledge Graphs for Fact-aware Language Modeling. IEEE Transactions on Knowledge and Data Engineering, 1–20. https://doi.org/10.1109/tkde.2024.3360454.
- Yin, Z., Huang, X., Qiu, X., Wu, J., Guo, Q., & Sun, Q. (2023). Do Large Language Models Know What They Don’t Know? arXiv.org. https://doi.org/10.48550/arxiv.2305.18153.
- Zheng, D., Pan, J. Z., & Lapata, M. (2024). Large Language Models as Reliable Knowledge Bases? arXiv.org. https://doi.org/10.48550/arxiv.2407.13578.
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія
Авторське право (c) 2024 Maksym Androshchuk

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.
Автори, які публікуються у цьому журналі, погоджуються з такими умовами:
а) Автори зберігають за собою авторські права на твір на умовах ліцензії CC BY 4.0 Creative Commons Attribution International License, котра дозволяє іншим особам вільно поширювати (копіювати і розповсюджувати матеріал у будь-якому вигляді чи форматі) та змінювати (міксувати, трансформувати, і брати матеріал за основу для будь-яких цілей, навіть комерційних) опублікований твір на умовах зазначення авторства.
б) Журнал дозволяє автору (авторам) зберігати авторські права без обмежень.
в) Автори мають право укладати самостійні додаткові угоди щодо поширення твору (наприклад, розміщувати роботу в електронному репозитарії), за умови збереження посилання на його першу публікацію. (Див. Політика Самоархівування)
г) Політика журналу дозволяє розміщення авторами в мережі Інтернет (наприклад, у репозитаріях) тексту статті, як до подання його до редакції, так і під час його редакційного опрацювання, оскільки це сприяє виникненню продуктивної наукової дискусії та позитивно позначається на оперативності та динаміці цитування опублікованої роботи (див. The Effect of Open Access).