Сучасні підходи до використання баз знань для вирішення проблем великих мовних моделей

Автор(и)

  • Максим Віталійович Андрощук Національний університет «Києво-Могилянська академія», Україна https://orcid.org/0000-0001-6183-6950

DOI:

https://doi.org/10.18523/2617-3808.2024.7.98-101

Ключові слова:

ВММ, база знань, галюцинації, RAG

Анотація

Розглянуто можливості інтеграції великих мовних моделей (ВММ) із базами знань для підвищення точності й надійності їхніх відповідей. Визначено переваги такого поєднання, зокрема зменшення ризику галюцинацій — генерування неправильної або вигаданої інформації. Проаналізовано різні підходи до об’єднання ВММ із базами знань, їхні сильні та слабкі сторони. Обговорено перспективи та виклики у застосуванні цієї технології в різних галузях, зокрема інформаційний пошук, підтримку прийняття рішень та автоматизоване створення контенту. Стаття надає огляд сучасного стану досліджень у цій сфері та окреслює напрями для подальшого вивчення.

Біографія автора

Максим Віталійович Андрощук, Національний університет «Києво-Могилянська академія»

здобувач доктора філософії, програми «Комп’ютерні науки» факультету інформатики Національного університету «Києво-Могилянська академія», maxym.androshchuk@ukma.edu.ua

Посилання

  1. Cooper, N., & Scholak, T. (n. d.). Perplexed: Understanding When Large Language Models are Confused. arXiv.org. https://doi.org/10.48550/arxiv.2404.06634.
  2. Min, B., Ross, H., Sulem, E., Veyseh, A. P. B., Nguyen, T. H., Sainz, O., Agirre, E., Heintz, I., & Roth, D. (2023). Recent Advances in Natural Language Processing via Large Pre-Trained Language Models: A Survey. ACM Computing Surveys. https://doi.org/10.1145/3605943.
  3. Nayak, A., & Timmapathini, H. P. (2023). LLM2KB: Constructing Knowledge Bases using instruction tuned context aware Large Language Models. arXiv.org. https://doi.org/10.48550/arxiv.2308.13207.
  4. Ranaldi, L., Zanzotto, F. M., Onorati, D., Venditti, D., & Ruzzetti, E. S. (2023). A Trip Towards Fairness: Bias and De-Biasing in Large Language Models. arXiv.org. https://doi.org/10.48550/arxiv.2305.13862.
  5. Wang, H., Zhao, S., Qiang, Z., Li, Z., Liu, C., Xi, N., Du, Y., Qin, B., & Liu, T. (2024). Knowledge-tuning Large Language Models with Structured Medical Knowledge Bases for Trustworthy Response Generation in Chinese. ACM Transactions on Knowledge Discovery from Data. https://doi.org/10.1145/3686807.
  6. Yang, L., Chen, H., Li, Z., Ding, X., & Wu, X. (2024). Give Us the Facts: Enhancing Large Language Models with Knowledge Graphs for Fact-aware Language Modeling. IEEE Transactions on Knowledge and Data Engineering, 1–20. https://doi.org/10.1109/tkde.2024.3360454.
  7. Yin, Z., Huang, X., Qiu, X., Wu, J., Guo, Q., & Sun, Q. (2023). Do Large Language Models Know What They Don’t Know? arXiv.org. https://doi.org/10.48550/arxiv.2305.18153.
  8. Zheng, D., Pan, J. Z., & Lapata, M. (2024). Large Language Models as Reliable Knowledge Bases? arXiv.org. https://doi.org/10.48550/arxiv.2407.13578.

##submission.downloads##

Опубліковано

2025-05-12