MorphoNAS‑Bench: бенчмарк для морфогенетичної генерації нейронних мереж

Автор(и)

  • Сергій Олександрович Медвідь Національний університет «Києво-Могилянська академія», Україна https://orcid.org/0009-0002-5601-4471

DOI:

https://doi.org/10.18523/2617-3808.2025.8.4-14

Ключові слова:

нейронні мережі, розвиткове кодування, морфогенетичний розвиток, пошук нейронних архітектур, бенчмарк-інструментарій, емерджентна модульність, непряме кодування

Анотація

У роботі представлено MorphoNAS-Bench — бенчмарк і набір інструментів для пошуку нейронних архітектур (Neural Architecture Search, NAS), який оснований на генеративному, розвитково-натхненому просторі пошуку. На відміну від сучасних NAS-бенчмарків, які використовують статичні кодування графів, що представляють нейронні мережі, MorphoNAS-Bench характеризується компактними геномами. Ці геноми контролюють процес морфогенетичного розвитку, що дозволяє створювати різні просторові рекурентні архітектури, які виникають внаслідок різних типів детермінованого зростання, які при цьому визначаються локальними правилами розвитку.
Початковий набір даних бенчмарку містить 1000 пар «геном-архітектура», які були обрані з більш ніж 50 000 спроб генерації. Цей набір був створений шляхом використання як повністю стратифікованого відбору параметрів, так і за біологічно-натхненним методом Genome.random(). Застосування випадкового підходу забезпечує адекватне охоплення площі пошуку та реалістичність результатів. Кожне знайдене рішення містить детальну анотацію структурних показників. Ми проводимо аналіз таких структурних характеристик, як розмір, модульність, групування та ефективність. Ми показуємо, що обидві стратегії генерації здатні утворювати як структуровані, так і нетривіальні мережі.
Наданий інструментарій на Python дозволяє вивчати процеси розвитку геномів нейронних мереж разом із відповідним структурним аналізом. Таким чином, MorphoNAS-Bench виступає як повторювана і біологічно обґрунтована платформа для досліджень різноманітності, еволюціонування, та емерджентні структури для NAS.

Біографія автора

Сергій Олександрович Медвідь, Національний університет «Києво-Могилянська академія»

старший викладач, студент PhD програми «Комп’ютерні науки» факультету інформатики Національного університету «Києво-Могилянська академія», s.medvid@ukma.edu.ua

Посилання

  1. Bhatia, J., Jackson, H., Tian, Y., Xu, J., & Matusik, W. (2021). Evolution gym: A large-scale benchmark for evolving soft robots. Advances in Neural Information Processing Systems, 34, 2201–2214.
  2. Deitke, M., VanderBilt, E., Herrasti, A., Weihs, L., Ehsani, K., Salvador, J., Han, W., Kolve, E., Kembhavi, A., & Mottaghi, R. (2022). ProcTHOR: Large-Scale Embodied AI Using Procedural Generation. Advances in Neural Information Processing Systems, 35, 5982–5994.
  3. Dong, X., Liu, L., Musial, K., & Gabrys, B. (2021). Nats-bench: Benchmarking nas algorithms for architecture topology and size. IEEE Transactions on Pattern Analysis and Machine Intelligence, 44 (7), 3634–3646.
  4. Dong, X., & Yang, Y. (2020). Nas-bench-201: Extending the scope of reproducible neural architecture search. arXiv Preprint arXiv:2001.00326.
  5. Geng, H., Wang, F., Wei, S., Li, Y., Wang, B., An, B., Cheng, C. T., Lou, H., Li, P., Wang, Y.-J., & others. (2025). RoboVerse: Towards a unified platform, dataset and benchmark for scalable and generalizable robot learning. arXiv Preprint arXiv:2504.18904.
  6. Glybovets, M., & Medvid, S. (2025). MorphoNAS: Embryogenic Neural Architecture Search Through Morphogen-Guided Development.arXiv Preprint arXiv:2507.13785. https://arxiv.org/abs/2507.13785
  7. Khalifa, A., Gallotta, R., Barthet, M., Liapis, A., Togelius, J., & Yannakakis, G. N. (2025). The Procedural Content Generation Benchmark: An Open-source Testbed for Generative Challenges in Games. Proceedings of the 20th International Conference on the Foundations of Digital Games, 1–12.
  8. Liu, H., Simonyan, K., & Yang, Y. (2018). Darts: Differentiable architecture search. arXiv Preprint arXiv:1806.09055.
  9. McKay, M., Beckman, R., & Conover, W. (1979). Comparison of Three Methods for Selecting Values of Input Variables in the Analysis of Output from a Computer Code. Technometrics, 21 (2), 239–245.
  10. Migliore, M., Cannia, C., Lytton, W. W., Markram, H., & Hines, M. L. (2006). Parallel network simulations with NEURON. Journal of Computational Neuroscience, 21 (2), 119–129.
  11. Neyman, J. (1934). On the Two Different Aspects of the Representative Method: The Method of Stratified Sampling and the Method of Purposive Selection. Journal of the Royal Statistical Society, 97 (4), 558–625.
  12. Stanley, K. O., D’Ambrosio, D. B., & Gauci, J. (2009). A Hypercube-Based Encoding for Evolving Large-Scale Neural Networks. Artificial Life. https://doi.org/10.1162/ARTL.2009.15.2.15202.
  13. Stanley, K. O., & Miikkulainen, R. (2002). Evolving Neural Networks through Augmenting Topologies. Evolutionary Computation. https://doi.org/10.1162/106365602320169811.
  14. Veenstra, F., Faina, A., Risi, S., & Stoy, K. (2017). Evolution and Morphogenesis of Simulated Modular Robots: A Comparison Between a Direct and Generative Encoding. In G. Squillero & K. Sim (Eds.), Applications of Evolutionary Computation (pp. 870–885). Springer International Publishing. https://doi.org/10.1007/978-3-319-55849-3_56.
  15. Ying, C., Klein, A., Christiansen, E., Real, E., Murphy, K., & Hutter, F. (2019). Nas-bench-101: Towards reproducible neural architecture search, 7105–7114. https://proceedings.mlr.press/v97/ying19a.html.

##submission.downloads##

Опубліковано

2025-11-26

Номер

Розділ

Нейронні мережі та машинне навчання