2024, випуск 4, c. 32-42

Одержано 30.10.2024; Виправлено 16.11.2024; Прийнято 03.12.2024

Надруковано 18.12.2024; Вперше Online 23.12.2024

https://doi.org/10.34229/2707-451X.24.4.3

Попередня  |  ПОВНИЙ ТЕКСТ  |  Наступна

 

УДК 519.711

Оцінка значущості факторів комп’ютерної моделі за допомогою простої нейромережі

В.А. Пепеляєв ORCID ID favicon Big,   Н.А. Орєхова *,   І.О. Лук’янов

Інститут кібернетики імені В.М. Глушкова НАН України, Київ

* Листування: Ця електронна адреса захищена від спам-ботів. Вам потрібно увімкнути JavaScript, щоб побачити її.

 

Вступ. Існуючі засоби комп’ютерної техніки надають можливість розробляти моделі будь-якої складності. Ця обставина провокує розробників комп’ютерних моделей складних систем до зайвої деталізації. Серед досвідчених фахівців з комп'ютерного моделювання існує думка, що іноді на попередньому етапі розробки моделі кількість малозначущих факторів може досягати 80 %. Таке збільшення розмірності не тільки значно ускладнює здійснення комп'ютерних експериментів, але й може мати суттєвий вплив на розуміння взаємодії важливих факторів, які визначають основу і суть функціонування складної системи. Тому не менш важливим для подальшого модельного дослідження, а особливо оптимізації складної системи, є визначення малозначущих факторів.

Мета роботи. Розробити алгоритм визначення малозначущих факторів за наявності набору навчальних даних, в якому кількість зразків даних порівняно невелика й перевищує кількість факторів всього в 2-3 рази. Для цього було використано модель нейромережі, що реалізує регресію, створену за допомогою бібліотеки Keras. Для проведення експериментів з метою визначення параметрів мережі (кількості шарів, кількості прихованих нейронів в шарі, а також кількості епох навчання) використовувалися штучно створені набори даних.

Результати. Отримана модель нейромережі продемонструвала ефективну роботу на тестових наборах даних. Потім модель використовувалася для визначення значущості факторів у наборах початкових популяцій для дослідження багатопопуляційного генетичного алгоритму (БГА).

Висновки. Запропонований алгоритм на основі простої нейромережі дозволяє коректно та досить швидко визначати малозначущі фактори в наборі початкових популяцій для дослідження БГА, що містить від 8 до 10 популяцій (250 – 300 зразків). Оскільки початкові ваги нейромережі обираються випадковим чином, результати різних прогонів для одного й того ж набору дещо відрізняються. Тому в загальному випадку оцінювання значущості факторів комп’ютерної моделі для отримання більш надійних результатів необхідно робити декілька прогонів.

 

Ключові слова: набір початкових популяцій, значущість факторів, нейромережа, епохи навчання.

 

Цитувати так: Пепеляєв В.А., Орєхова Н.А., Лук’янов І.О. Оцінка значущості факторів комп’ютерної моделі за допомогою простої нейромережі. Cybernetics and Computer Technologies. 2024. 4. С. 32–42. https://doi.org/10.34229/2707-451X.24.4.3

 

Список літератури

           1.     Horne G.E., Meyer T.E. Data Farming: Discovering Surprise. Prociding. of the Winter Simulation Conference. 2005. P. 1082–1087.

           2.     SEED Center for Data Farming. http://harvest.nps.edu/ (звернення: 30.10.2024)

           3.     Barry Ph., Koehler M. Simulation in context: using Data Farming for decision Support. Prociding. of the Winter Simulation Conference. 2004. P. 814–819.

           4.     Horne G.E., Schwierz K.-P. Data Farming around the world overview. Prociding. of the Winter Simulation Conference. 2008. P. 1442–1447.

           5.     Choo C.S., Ng E.C., Ang D., Chua C.L. Data Farming: a brief history. Prociding. of the Winter Simulation Conference. 2008. P. 1448–1455.

           6.     Fu M. Optimization for Simulation: Theory and Practice. INFORMS J. on Computing. 2002. 14 (3). P. 192–215.

           7.     April J., Glover F., Kelly J.P., Laguna M. Practical introduction to simulation optimization. Prociding. of the Winter Simulation Conference. 2003. P. 71–78.

           8.     Пепеляев В.А. К вопросу об интеграции методов оптимизации и имитационного моделирования. Теорія оптимальних рішень. 2003. № 2. С. 51–61. http://dspace.nbuv.gov.ua/handle/123456789/84855

           9.     Pepelyaev V.A. Planning optimization-simulation experiments. Cybernetics and Systems Analysis. 2006. 42, (6).  P. 866–875. https://doi.org/10.1007/s10559-006-0126-z

       10.     Литвиненко Ф.А., Лукьянов И.О., Криковлюк Е.А. Особенности реализации параллельной версии многопопуляционного генетического алгоритма. Компьютерная математика. 2018. № 2. С. 2129. http://dspace.nbuv.gov.ua/handle/123456789/161882

       11.     Литвиненко Ф.А., Лукьянов И.О., Криковлюк Е.А. О повышении эффективности параллельной версии многопопуляционного генетического алгоритма. Теория оптимальных решений. 2019. С. 116122. http://dspace.nbuv.gov.ua/handle/123456789/161683

       12.     Пепеляев В.А., Чёрный Ю.М. О возможностях применения генетических алгоритмов в оптимизационно-имитационных экспериментах. Теорія оптимальних рішень. 2019. № 18. С. 6977. http://dspace.nbuv.gov.ua/handle/123456789/161681

       13.     Лукьянов И.О., Литвиненко Ф.А., Коваль В.П. О выборе размера начальной популяции для параллельной версии многопопуляционного генетического алгоритма. ІХ Міжнародна школа-семінар «Теорія прийняття рішень». Україна. Ужгород. 15-20 квітня 2019. С. 9596.

       14.     Лукьянов И.О., Литвиненко Ф.А., Козлюк Е.М. Об эффективном использовании начальной популяции генетического алгоритма. ХІХ Міжнародна науково-технічна конференція «Проблеми інформатики та моделювання». Україна. Харків – Одеса. 11-16 вересня 2019. С. 5253.

       15.     Лукьянов И.О. Об эффективности параллельного многопопуляционного генетического алгоритма для разного числа процессоров. VII Международна научная конференция «Математическое моделирование, оптимизация и информационные технологии». Кишинэу – Киев – Батуми. 15-19 ноября 2021.

       16.     Лук’янов І.О., Литвиненко Ф.А. Про вибір числа процесорів для паралельного багатопопуляційного генетичного алгоритму. Кібернетика та комп'ютерні технології. 2022. № 2. С. 3137. https://doi.org/10.34229/2707-451X.22.2.3

       17.     About Keras 3. https://keras.io/about/ (звернення: 30.10.2024)

       18.     Chollet F. Deep learning with Python. Simon and Schuster. 2021.

 

 

ISSN 2707-451X (Online)

ISSN 2707-4501 (Print)

Попередня  |  ПОВНИЙ ТЕКСТ  |  Наступна

 

 

            Випуски

 

© Вебсайт та оформлення. 2019-2025,

Інститут кібернетики імені В.М. Глушкова НАН України,

Національна академія наук України.