Cómo quitar el moho de las lavadoras: 10
May 26, 2023Esta es la temperatura a la que debe estar tu frigorífico
May 27, 2023Ser
May 28, 2023Cómo limpiar lavadora con vinagre y bicarbonato de sodio
May 29, 2023Errores que hay que evitar en la lavadora que son 'perjudiciales' y provocan 'olores'
May 30, 2023Exponente máximo de Lyapunov
Scientific Reports volumen 13, número de artículo: 12744 (2023) Citar este artículo
285 Accesos
Detalles de métricas
El algoritmo del moho limoso (SMA) es un algoritmo inspirado en la naturaleza que simula los mecanismos de optimización biológica y ha logrado grandes resultados en varios problemas complejos de optimización estocástica. Debido al principio de búsqueda biológica simulada del moho limoso, el SMA tiene una ventaja única en el problema de optimización global. Sin embargo, todavía sufre problemas por perder la solución óptima o colapsar al óptimo local cuando se enfrenta a problemas complicados. Para superar estos inconvenientes, consideramos agregar un nuevo operador local multicaótico al mecanismo de retroalimentación de biochoque de SMA para compensar la falta de exploración del espacio de solución local con la ayuda de la naturaleza perturbadora del operador caótico. En base a esto, proponemos un algoritmo mejorado, a saber, MCSMA, investigando cómo mejorar la selección probabilística de operadores caóticos basándose en el exponente máximo de Lyapunov (MLE), una propiedad inherente de los mapas caóticos. Implementamos la comparación entre MCSMA con otros métodos de última generación en el Congreso IEEE sobre Computación Evolutiva (CEC), es decir, los trajes de prueba de referencia CEC2017 y los problemas prácticos CEC2011 para demostrar su potencia y realizar un entrenamiento de modelos de neuronas dendríticas para probar la robustez de MCSMA sobre problemas de clasificación. Finalmente, se discuten adecuadamente las sensibilidades de los parámetros de MCSMA, la utilización del espacio de solución y la efectividad del MLE.
Las estrategias metaheurísticas se están generalizando cada vez más para resolver todo tipo de problemas de optimización matemática. A diferencia de las heurísticas tradicionales que las precedieron, las metaheurísticas pueden hacer frente a una gama extensa y más compleja de situaciones problemáticas debido a su generalidad, que no depende de las condiciones específicas de un problema particular1,2. 'Meta' puede entenderse como una especie de trascendencia y extensión del objeto original. Una metaheurística es más una idea o concepto desarrollado con métodos heurísticos. Estrictamente hablando, una heurística es una solución fija ideada por las características de un problema determinado para obtener una mejor solución. La metaheurística es un tipo de procedimiento abstracto que construye un conjunto de procesos o metodologías universales.
Hoy en día, a medida que aumentan la escala computacional y la complejidad de diversos problemas de aplicaciones de ingeniería, es posible que los algoritmos y heurísticas de optimización tradicionales originales ya no se enfrenten a la situación práctica actual3,4, por ejemplo, clasificación y simulación de imágenes, optimización de estructuras portantes de edificios, parámetros de energía solar. optimización, etc5. Estos problemas son problemas NP-difíciles multidimensionales, no lineales y de ajuste múltiple6, que han planteado grandes desafíos al sistema informático existente. Como resultado, los informáticos esperan innovar todo el sistema informático desde los aspectos de hardware y software7,8. Aquí es donde surgen las metaheurísticas como una actualización de los algoritmos de la arquitectura subyacente. Las metaheurísticas son un refinamiento de las heurísticas, que son el producto de combinar algoritmos estocásticos y búsqueda local. Crean un proceso que puede deshacerse del óptimo local y llevar a cabo una búsqueda sólida en el espacio de la solución coordinando la interacción entre la mejora local y las estrategias operativas9. Durante el procedimiento se utilizan estrategias de búsqueda para adquirir y dominar la información para encontrar la solución óptima aproximada de manera efectiva. Por tanto, el mecanismo operativo de la metaheurística no depende demasiado del patrón organizativo de una determinada situación. Este principio puede aplicarse de manera difusa a la optimización combinatoria y al cálculo de funciones10,11.
En metaheurística, la inteligencia de enjambre ha atraído considerable interés y atención en los campos de la optimización, la inteligencia computacional y la informática en los últimos años12. Muestra un comportamiento computacional inteligente a través de una simple cooperación entre cada inteligencia y muestra una capacidad de selección mucho más fuerte que un individuo en el caso de una selección óptima13,14. La optimización de colonias de hormigas (ACO) es un logro fundamental en el desarrollo de la teoría sistemática de la inteligencia de enjambre. Dorigo et al. investigaron la planificación de rutas de colonias de hormigas reales y el uso de mecanismos de feromonas biológicas, utilizando la concentración de feromonas como índice de calidad para guiar a los individuos hacia el camino más corto15. La población de próxima generación determina la ruta superior a lo largo de todo el espacio según la intensidad de feromonas de la generación anterior. Cuanto mayor sea la intensidad de las feromonas en una determinada ruta, es más probable que los individuos atraigan esa ruta. La ruta con mayor feromona puede considerarse como la solución óptima buscada por el algoritmo16,17. ACO tiene una buena capacidad de búsqueda global y se utiliza ampliamente en muchas áreas de optimización combinatoria18. Por ejemplo, Gao et al. mejoró la idea de agrupación de k-medias en ACO y propuso un algoritmo de agrupación de colonias de hormigas que ha obtenido logros considerables en la resolución de problemas de enrutamiento de ubicación dinámica19. La optimización del enjambre de partículas (PSO) se diferencia de la ACO en que PSO presta más atención a la dirección del aprendizaje en la toma de decisiones y al intercambio colaborativo de información cuando todas las partículas atraviesan el espacio de la solución20,21. En la iteración por período, cada partícula está obligada a realizar un juicio de aprendizaje sobre si se debe modificar la ruta que se basa en la idoneidad para medir la solución óptima global y la solución óptima local. Por lo tanto, PSO acelera la tasa de convergencia al extraer lo mejor actual, y la población de partículas tiene una alta tasa de convergencia en términos de exploración. Actualmente se ha implementado una amplia gama de estudios relacionados con PSO en sistemas complejos, optimización tradicional e incluso problemas de ingeniería a gran escala22. Los dos algoritmos anteriores son algunos de los algoritmos de inteligencia poblacional más extendidos y exitosos. Y luego surgió una gran cantidad de algoritmos metaheurísticos con ideas de inteligencia de enjambre, incluido el algoritmo de luciérnaga23, el algoritmo de optimización de ballenas (WOA)24, el algoritmo de polinización de flores25, el algoritmo de colonias de abejas artificiales26, etc.
Teniendo en cuenta los puntos fuertes de la inteligencia de enjambre, elegimos el algoritmo del moho limoso (SMA)27 como algoritmo subyacente, que también es un algoritmo heurístico biológico con inteligencia de enjambre propuesto recientemente. SMA se ilumina gracias al exclusivo mecanismo de retroalimentación motora de los mohos mucilaginosos. Este algoritmo simula la imitación de la retroalimentación de las bacterias del limo que difunden información sobre los alimentos, lo que da como resultado la exploración de la mejor vía para obtener energía. Este proceso considera la retroalimentación bidireccional adaptativa de las ondas de bioinformación, lo que permite que el algoritmo genere un contrapeso durante el proceso de búsqueda. También existían antes varios algoritmos para el mimetismo microbiano. Por ejemplo,28 propusieron una red de limo basada en un sistema de colonias de hormigas para resolver el problema del viajero de alta dimensión. Monismith et al.29 se basan en las cinco formas de vida de las amebas biológicas para construir una red neuronal artificial (RNA) para resolver los problemas de la teoría de grafos y las redes generativas30. A diferencia de estos algoritmos bacterianos con nombres similares, SMA utiliza principalmente el ajuste de pesos en la retroalimentación para modelar tres morfologías diferentes de biorretroalimentación de mohos mucilaginosos. Amplios estudios experimentales y de variantes algorítmicas demuestran la solidez y eficacia de este algoritmo para resolver problemas de optimización31.
Debido al excelente desempeño de SMA en el campo de la optimización estocástica, se han aplicado ampliamente numerosas variantes excepcionales de SMA para abordar diversos problemas. Houssein et al.32 propusieron una variante multiobjetivo de SMA que utilizaba un archivo de información para almacenar las soluciones óptimas de Pareto obtenidas por individuos en el espacio de búsqueda multiobjetivo. Este enfoque arrojó resultados de simulación notables sobre las funciones de referencia multiobjetivo de CEC2020 y el problema de la espiral de resorte del automóvil. Hu et al.33 abordaron la cuestión de la concentración inducida en la población de mohos limosos empleando una estrategia de búsqueda de alimento por dispersión, manteniendo efectivamente la diversidad de la población. Este algoritmo mejorado se aplicó con éxito a problemas de selección de características en la minería de datos, identificando de manera eficiente características de información óptimas y manteniendo una alta precisión de clasificación. En 34, se introdujo una arquitectura guiada jerárquica para mejorar SMA y resolver problemas de planificación de rutas de robots móviles. Los resultados experimentales en múltiples entornos demostraron que el camino construido por la población jerárquica de mohos mucilaginosos exhibía una mayor suavidad y una velocidad de cálculo más rápida. Estos ejemplos de aplicaciones muestran las capacidades únicas de optimización estocástica global de SMA. Al aprovechar la capacidad de optimización automática y las ventajas de exploración global de los individuos con moho de lodo, se introducen diferentes estrategias de mejora para guiar a los mohos de lodo en la realización de comportamientos de optimización eficientes, y todavía hay mucho trabajo en curso para explorar sus propiedades relevantes.
Los mohos mucilaginosos adaptan dinámicamente su comportamiento de búsqueda de alimento basándose en la retroalimentación de las bioondas en los alimentos. Cuando la biorretroalimentación indica que esta área tiene feromonas alimentarias más altas, la probabilidad de que permanezcan en esta área y realicen una búsqueda generalizada aumenta. Cuando los mohos limosos participan en este comportamiento de búsqueda local, observamos que este comportamiento único está bien alineado con las características de la búsqueda local caótica. Entre los algoritmos metaheurísticos existentes, los mapas caóticos son algo generalizables. Se pueden utilizar ampliamente en la inicialización de poblaciones y en el ajuste de operadores de varianza cruzada para realizar una búsqueda local efectiva, aumentando así la probabilidad de descubrir la mejor solución35,36. Por lo tanto, consideramos agregar mapas caóticos a la búsqueda local de mohos limosos, con el objetivo de fortalecer la capacidad de este algoritmo en la búsqueda local y mejorar aún más la estocasticidad y ergodicidad del comportamiento de búsqueda de mohos limosos.
Al mismo tiempo, nos centramos en la propiedad esencial de los mapas caóticos: el máximo exponente de Lyapunov (MLE). Este coeficiente es un criterio crucial para determinar si un sistema está realizando un movimiento caótico. Seleccionamos el mapa caótico más apropiado en función del valor de MLE, brindando la oportunidad de una segunda selección de operador local caótico y mejorando la capacidad general de todo el algoritmo en la exploración local. En este estudio, presentamos creativamente un algoritmo de moho mucilaginoso caótico múltiple (MCSMA) basado en MLE. Por primera vez seleccionamos mapas caóticos adecuados según su relevancia MLE y utilizamos una rueda de ruleta multicaótica para incorporar estos mapas en el patrón de búsqueda local de mohos limosos, logrando así un mejor equilibrio entre explotación y exploración. Para verificar el rendimiento de MCSMA, se llevan a cabo extensos experimentos basados en 29 problemas de optimización de funciones de referencia de IEEE CEC2017, 22 aplicaciones prácticas de IEEE CEC2011 y 7 problemas de clasificación del mundo real. Los resultados estadísticos muestran que MCSMA supera significativamente a sus pares. Además, la sensibilidad de los parámetros de MCSMA, la utilización del espacio de la solución y la efectividad del MLE se analizan sistemáticamente para mostrar más conocimientos sobre MCSMA.
La parte restante se estructura de la siguiente manera: La sección “Breve descripción de SMA” presenta aproximadamente el patrón de comportamiento y las características de búsqueda de los mohos mucilaginosos en el algoritmo subyacente SMA. En la sección "Operador de búsqueda local multicaótico", describimos en detalle la naturaleza y las características del operador local caótico. En la sección "SMA caótica múltiple basada en MLE", explicamos exhaustivamente cómo adaptar el mecanismo de ajuste de peso basado en MLE al operador caótico. Además, se presenta todo el proceso de ejecución de MCSMA. Los datos experimentales y los resultados de MCSMA en varios conjuntos de funciones de prueba se proporcionan y analizan en la sección "Análisis experimental". La sección “Discusión” lleva a cabo una discusión suficiente sobre los parámetros óptimos de MCSMA, el patrón de movimiento de la población y la efectividad del mecanismo de ajuste basado en MLE. Finalmente, resumimos y delineamos el trabajo realizado en la sección “Conclusión”, dando algunas ideas sobre el desarrollo futuro.
Los biólogos descubrieron desde el principio que los mohos mucilaginosos, como organismos unicelulares, exhiben una inteligencia increíble. Nakagaki et al.37 idearon un interesante experimento de laberinto en el que se colocaba avena en determinados puntos del laberinto y se comprobó que los mohos mucilaginosos siempre elegían el camino que requería menor cantidad de energía y obtenían una cantidad suficiente de alimento. Tero et al.38 utilizaron posteriormente mohos limosos para simular la red ferroviaria en toda el área de Tokio. Los experimentos demostraron que en problemas complejos de optimización combinatoria, la red formada por la conexión de mohos limosos se aproximaba al camino óptimo en ingeniería. Por lo tanto, los científicos creen que esta inteligencia del moho limoso se puede utilizar en el diseño de redes de transporte, así como en complejos experimentos de simulación a gran escala.
SMA ha analizado exhaustivamente los mecanismos del flujo citoplasmático y el cambio de la estructura venosa a medida que los mohos mucilaginosos buscan alimento. Los mohos mucilaginosos detectan los alimentos a través de una estrecha red de venas, y cuando las venas detectan una fuente de alimento, un oscilador biológico propaga una onda de biorretroalimentación. Cuando los mohos detectan esta onda de retroalimentación, aumentan la concentración citoplasmática en la vena y el espesor de la vena se correlaciona positivamente con la concentración citoplasmática. Cuanto más abundante es la señal de alimento, mayor es la concentración citoplasmática y más rica es la red de venas que conducen al alimento, estableciendo así la vía óptima para la búsqueda de alimento. Además, cuando se enfrentan a fuentes de alimentos de diferente calidad, los mohos mucilaginosos también pueden racionalizar las venas que conducen a los alimentos según la teoría óptima. Este algoritmo aprende la estrategia de búsqueda de retroalimentación adaptativa y los mecanismos especiales de los mohos mucilaginosos y construye un modelo de optimización matemática eficiente. SMA incluye procesos de búsqueda de nutrición, nutrición total y oscilador biológico.
Esquema de visualización de SMA en 2D y 3D.
Los microbios generalmente buscan nutrición a través de feromonas residuales en el aire y a lo largo de las vías. La Figura 1 se ilustra para comprender el modelo visual de los mohos mucilaginosos en la búsqueda de nutrición. El comportamiento asintótico de búsqueda de nutrientes de los mohos mucilaginosos se puede formular mediante:
donde cada M puede considerarse como un moho limoso individual, y estos individuos actualizan sus posiciones de acuerdo con el individuo óptimo contemporáneo \(M^{*}\), y tres parámetros relacionados \(\alpha\), \(\beta \) y W. \(M_{i}(t)\), \(M_{j}(t)\) representan dos individuos de limo seleccionados al azar, t implica el número de iteraciones y W es un peso aprendido del Comportamiento de búsqueda de alimento del limo. \(\alpha\) se calcula como un parámetro equilibrado basado en el número de iteraciones, y \(\beta\) es un coeficiente lineal decreciente de 1 a 0. r es un valor aleatorio en [0,1]. q está definido por \(q=\tanh \vert F_i-F^{*}\vert\). \(F_i\) indica el valor de aptitud de M. \(F^{*}\) denota la aptitud óptima de todas las iteraciones.
La distribución de \(\alpha\) está en el rango \([-a, a]\). El valor de a se deriva de una función tangente hiperbólica inversa respecto del número de iteraciones, tomando valores en el rango (-1, 1). a puede expresarse por:
donde \(t_{max}\) es el número máximo de iteraciones. Mediante este enfoque, se asigna un rango de actividad aproximado a los mohos mucilaginosos en cada generación.
En la Fig. 1, podemos ver los cambios actualizados en la posición de búsqueda de los individuos de limo en el espacio bidimensional y tridimensional. Ajustando los parámetros de la Ec. (1), los mohos limosos pueden investigar en direcciones aleatorias dentro del espacio de búsqueda, formando un vector de búsqueda de ángulo libre que mejora la probabilidad y la capacidad de los individuos para encontrar la solución óptima. Este proceso estimula la red venosa envuelta formada por las bacterias del limo a medida que se acercan a la fuente de alimento, buscando todo lo posible sobre el alimento.
Cuando la red venosa recibe suficiente información nutricional, el biooscilador comienza a emitir información que puede regular la concentración del citoplasma y la estructura biológica. Este proceso está dedicado a conocer este patrón de retroalimentación de los mohos mucilaginosos que regula la estructura de los tejidos biológicos. W en la ecuación. (1) se expresa matemáticamente como un coeficiente de retroalimentación positiva y negativa entre los tejidos venosos y las concentraciones de feromonas alimentarias. La definición de W se describe a continuación:
donde \(F_{b}\) significa la aptitud del mejor individuo contemporáneo y \(F_{w}\) significa la aptitud del peor individuo contemporáneo. La función logarítmica sirve para equilibrar la tasa de cambio de los valores y evitar valores extremos de la frecuencia de cambio. Debido a la incertidumbre sobre la actividad biológica del moho limoso, se adjunta un factor rand a la aleatoriedad del modelo. \(Case-Half\) significa el caso en el que \(F_i\) está en la mitad de la clasificación de la población. Obviamente, cuando la concentración y la calidad de la nutrición son altas, la probabilidad de que un individuo de moho mucilaginoso permanezca en la región para una búsqueda exhaustiva se vuelve mayor; cuando la concentración y calidad de la nutrición son bajas, el individuo se traslada a otra región.
Para comprender mejor los cambios en los mohos mucilaginosos de las bacterias mucilaginosas al recibir bioondas, SMA utiliza W, \(\alpha\) y \(\beta\) para buscar el mecanismo de regulación del oscilador. \(\alpha\) y \(\beta\) son dos coeficientes que oscilan aleatoriamente dentro de un cierto intervalo y convergen a cero. La modulación mutua de estos dos parámetros da una buena indicación del comportamiento de selección biológica estocástica del mucílago. Cuando un individuo ha encontrado la solución óptima en el espacio, los mohos mucilaginosos aún pueden asignar parte de su población a otras áreas, aumentando la probabilidad de encontrar la fuente de alimento que falta. También es un instinto del organismo encontrar todas las fuentes de alimento posibles, en lugar de quedarse atrapado en un área de alimento localizada. Además, ajustando los coeficientes de retroalimentación bidireccional W, se puede cambiar la frecuencia de la bioonda en presencia de diferentes concentraciones de feromonas alimentarias. Cuando las fuentes de alimento de buena calidad se encuentran en tejidos venosos, W aumentará para cambiar la concentración citoplasmática y acercarse a la fuente de alimento de manera más eficiente; cuando la calidad y concentración de los alimentos no son buenas en algunas áreas, W se reducirá para ralentizar la extensión del tejido de la región y ahorrar energía, a fin de elegir fuentes de alimentos de manera más eficiente.
El SMA visualiza intuitivamente la eficiente actividad biológica de búsqueda de alimento de los mohos mucilaginosos. Sin embargo, el camino para encontrar la mejor fuente de alimento no es sencillo y está influenciado por varios factores que inevitablemente pueden conducir a la trampa del óptimo local. Por lo tanto, debemos considerar agregar una serie de mecanismos para corregir esta tendencia y remediar algunas de las fallas del algoritmo.
El orden del macro universo se construye sobre el desorden del micro mundo. Esta armonía contiene leyes subyacentes que los paradigmas existentes no pueden describir, explicar o predecir. La teoría del caos consiste en estudiar la incertidumbre local y la estabilidad del conjunto, el orden oculto en el fenómeno impredecible. La mayoría de los escenarios que encontramos en la realidad son sistemas no lineales que no pueden resolverse mediante la experiencia y la teoría convencionales, con interacciones complejas entre elementos dentro del sistema que son difíciles de cuantificar. Los sistemas caóticos generalmente tienen las siguientes tres características típicas:
Si un sistema realiza un movimiento caótico, la órbita del sistema es desproporcionadamente sensible a pequeños cambios en el estado inicial, o un pequeño cambio producido en una parte del sistema puede provocar una reacción violenta en todo el sistema.
Los sistemas caóticos tienen propiedades fractales, es decir, el sistema es irregular en su estructura general desde el principio, pero el grado de irregularidad del sistema es repetitivo en diferentes escalas.
Los sistemas siempre exhiben un estado de antagonismo mutuo y acoplamiento entre características de equilibrio estático y la tendencia a caer en patrones no predeterminados.
El mapa caótico se puede concebir como una función utilizada para generar matrices caóticas aleatorias. En el campo de la computación evolutiva, los algoritmos a menudo requieren generadores de números pseudoaleatorios para la inicialización de la población, pero a veces los resultados no son satisfactorios. Se ha descubierto que, debido a la imprevisibilidad y ergodicidad de los mapas caóticos, se obtienen mejores resultados sustituyendo los generadores pseudoaleatorios por mapas caóticos39. En nuestro estudio, se eligen 12 mapas caóticos representativos, tomando como ejemplo uno de los mapas más conocidos de Chebyshev, cuya fórmula de mapa caótico es:
donde x y n pertenecen al conjunto de los números enteros. O denota el orden del mapa de Chebyshev. Cuando O es mayor o igual a 2, no importa cuán aproximado se seleccione el valor inicial, la secuencia iterada resultante no tiene correlación, es decir, el sistema está en caos. La Figura 2 muestra el histograma de la distribución producida por 12 mapas caóticos diferentes.
El histograma de la distribución producido por 12 mapas caóticos diferentes.
El exponente máximo de Lyapunov es un indicador cuantitativo esencial para medir y determinar si un sistema no lineal está experimentando un movimiento caótico. Para sistemas caóticos, las trayectorias iniciadas por dos variables iniciales enormemente cercanas producen una separación exponencial a lo largo del tiempo, y el MLE se define para cuantificar la cantidad que describe esta tasa de separación.
Supongamos un sistema dinámico discreto unidimensional: \(x_{n+1}=\textrm{f}\left( x_{n}\right)\). Después de n iteraciones, si los dos puntos iniciales están separados o cerca en el espacio depende de la derivada \(\left| \frac{df (x_{n})}{d x_{n}}\right|\). Para un punto variable inicial \(x_{0}\), establecemos que el cambio de posición causado por cada iteración tenga una tasa de separación exponencial de \(\Lambda\). Entonces la distancia inicial \(\Delta\) entre los dos puntos después de la iteración se convierte en:
Tomando los límites \(\Delta \rightarrow 0\), \(n \rightarrow \infty\), luego la ecuación. (5) se puede deformar a
La ecuación anterior se puede simplificar como:
A partir de esto podemos generalizar esta definición a todos los problemas y obtener la ecuación que define el máximo exponente de Lyapunov como:
donde \(\delta \textbf{Y} (t)\) y \(\delta \textbf{Y} _ {0}\) representan las trayectorias de movimiento causadas por dos valores iniciales en el sistema dinámico, respectivamente. Es intuitivo ver que si \(\Lambda\) es mayor o igual a 0, eso significa que no importa qué tan cerca estén las dos trayectorias iniciales, la diferencia en sus trayectorias se magnificará exponencialmente en el espacio con el tiempo. Entonces podemos sacar dos conclusiones: (1) Si un sistema tiene al menos un MLE mayor que 0, el sistema realiza el movimiento caótico. (2) El MLE de movimiento periódico o estado estacionario debe ser al menos no positivo.
De acuerdo con las definiciones anteriores, podemos obtener el MLE de cada mapa caótico por separado, y el valor de los números se resume en la Tabla 1. Consideramos el MLE como una característica fundamental de las diferentes secuencias caóticas y discutiremos más adelante cómo esta propiedad fundamental puede incorporarse a la consideración de los operadores locales.
Los algoritmos metaheurísticos son, en esencia, una asociación interactiva de una estrategia de exploración global y un operador de búsqueda local. La investigación y mejora de las estrategias de búsqueda a lo largo de los años son esenciales para permitir que el algoritmo explore el espacio de soluciones de manera más racional y se libere del problema de ser inducido por óptimos locales. Siguiendo las propiedades caóticas introducidas anteriormente, la descendencia generada por un mapa caótico varía aleatoria e irregularmente. Si a un algoritmo se le asigna suficiente tiempo y recursos computacionales, podemos creer aproximadamente que el algoritmo es capaz de viajar por toda el área de búsqueda y encontrar la solución objetivo que queremos. Pero una vez que el problema es de alta dimensionalidad y alta complejidad computacional, requerirá una enorme cantidad de recursos y tiempo de optimización, lo que no está en línea con el objetivo de la informática de perseguir la eficiencia. Por tanto, la utilización de operadores de búsqueda caóticos en espacios de búsqueda pequeños y fases específicas puede ser una forma importante de mejorar el rendimiento de la búsqueda. Hasta la fecha, este operador se ha aplicado a extensos algoritmos para estrategias de búsqueda global y se han obtenido muchos logros fructíferos.
Alatas et al.40 propusieron un algoritmo de búsqueda de armonía mejorado reemplazando la secuencia aleatoria en la inicialización del algoritmo de búsqueda de armonía con cada uno de siete mapas caóticos diferentes y prueban el rendimiento de siete algoritmos de combinación caótica para resolver problemas de optimización. Se descubrió que este enfoque mejoraba el rendimiento de los algoritmos en la búsqueda global. Yuan et al.41 combinaron el pensamiento cuántico y la búsqueda local caótica en un algoritmo tradicional de colonias de abejas artificiales. En iteraciones contemporáneas, el enjambre realiza una búsqueda desordenada en las proximidades de la mejor fuente de alimento encontrada actualmente, lo que bien puede eludir el algoritmo capturado por el óptimo local a través del nerviosismo del caos. Gao et al.42 reformaron la evolución diferencial basada en la búsqueda local mediante el caos, incorporando un operador de búsqueda local multicaos basado en la probabilidad de éxito en el proceso de mutación. Mejora eficazmente los defectos inherentes de la mayoría de las variantes de evolución diferencial, a saber, la convergencia prematura y el rendimiento inestable. Además, se proponen cuatro variantes caóticas basadas en diferentes aplicaciones de búsqueda local caótica, y la eficacia del caos múltiple se demuestra en un número suficiente de problemas de prueba.
Muchos ejemplos demuestran que la búsqueda local caótica tiene una aplicación integral y exitosa en algoritmos metaheurísticos. Los académicos han utilizado la búsqueda local caótica de diversas maneras para ayudar a los algoritmos a mejorar la capacidad de explorar y explotar el espacio de búsqueda, evitar la interferencia de los óptimos locales y realizar un comportamiento de convergencia eficiente y preciso.
En esta sección, especificamos las fuentes de inspiración para MCSMA y el mecanismo de operación del algoritmo. Se explican en detalle las tres preguntas de cómo incluir una búsqueda local caótica en SMA, cómo llamar a mapas caóticos y cómo mejorar el operador local. También se presentan el diagrama de flujo y el pseudocódigo de MCSMA.
En la sección anterior, hemos descrito en detalle los mecanismos biológicos y el proceso de modelado matemático de la AME. Las actividades biológicas de los organismos unicelulares parecen desordenadas y aleatorias, pero también hay leyes características detrás de ellas. Para un individuo microscópico como un moho mucilaginoso, la tarea más desafiante es cómo encontrar información alimentaria con precisión en un vasto espacio. De manera similar, para un buen algoritmo, el problema más crítico a resolver es cómo encontrar eficientemente la solución óptima en todo el espacio de soluciones8,43. En SMA, los individuos de la población actualizan y juzgan su posición empleando coeficientes de retroalimentación positivos y negativos. De la ecuación. (1), podemos suponer que los individuos realizan dos tipos de actividades ordenadas en el espacio de solución bajo la adaptación de los parámetros de retroalimentación. Cuando no se detecta información alimentaria temporalmente, los individuos ajustan sus posiciones correspondientes entre sí, se mueven y buscan hacia la región del ángulo entre dos individuos, o posiblemente continúan explorando en la dirección de su propio vector. Sin embargo, en este proceso, la solución globalmente óptima que necesitamos puede estar oculta en el espacio de solución vacante de estos dos caminos alternativos. No podemos descartar esta posibilidad, por lo que la cuestión de cómo permitir que los individuos de la población busquen más plenamente en todo el espacio de soluciones es un problema urgente que debe resolverse. La tremenda ventaja del movimiento caótico es que un movimiento completamente desordenado en una región determinada puede compensar significativamente la debilidad del algoritmo en la exploración local. Desde la perspectiva de la exploración y explotación del espacio de búsqueda general, los individuos del moho limoso en SMA demuestran capacidades de exploración satisfactorias, lo que permite a la población explorar todas las regiones potenciales. Sin embargo, SMA carece de una fuerte explotación de regiones específicas, lo que aumenta el riesgo de estancamiento de la búsqueda y convergencia prematura. Teniendo en cuenta las ventajas de la búsqueda caótica, contemplamos cómo incorporar un operador de búsqueda local caótica en el mecanismo de retroalimentación de los individuos de limo para obtener información sobre alimentos. Al incorporar operadores de búsqueda locales caóticos para perturbar las trayectorias individuales de manera desordenada, nuestro objetivo es mejorar las capacidades de explotación especializadas del algoritmo en regiones prometedoras, ayudando a lograr los resultados de optimización deseados.
Aquí, presentamos por primera vez un algoritmo MCSMA mejorado basado en el comportamiento depredador de mohos limosos y múltiples operadores locales caóticos. El algoritmo subyacente SMA ha demostrado ser un potente algoritmo de búsqueda global. A medida que aumenta el número de iteraciones, la distribución de poblaciones en el espacio de búsqueda muestra una trayectoria de movimiento de búsqueda cruzada. Especialmente en la fase anterior de las iteraciones, la renovación de posiciones individuales fluctúa muy marcadamente en las primeras etapas debido a los parámetros \(\alpha\) y W. Por lo tanto, SMA puede converger rápidamente en una etapa temprana y explorar una porción significativa de la iteración. todo el espacio de exploración. Las iteraciones posteriores de individuos convergen en regiones que probablemente sean globalmente óptimas y realicen una exploración desordenada. Esto asegura la capacidad de búsqueda global del algoritmo. Pero cuando \(r \ge q\), la población adoptará un comportamiento selectivo, con algunos de los limos dirigiéndose hacia otras regiones y otros individuos manteniendo su dirección original para una búsqueda oscilatoria. A lo largo de esta trayectoria de búsqueda, existe la posibilidad de que la solución óptima sea despreciada en el espacio o capturada por un óptimo local en una región pequeña. Por lo tanto, consideramos la inserción de un poderoso mecanismo de explotación en este proceso, a saber, el operador local caótico.
En un operador local que utiliza un único mapa, el operador genera la siguiente generación de nuevos individuos, empleando un individuo contemporáneo globalmente óptimo \(E_{k}\). La fórmula para la búsqueda caótica se puede expresar como:
donde \(\widetilde{E_{k}}\) denota el individuo potencial para reemplazar al globalmente óptimo contemporáneo. \(V_{U}\) es el vector de límite superior de la población, y \(V_{L}\) es el vector de límite inferior. \(\phi\) puede entenderse como una escala espacial que puede representar la búsqueda caótica. \(\omega _{k}\) representa las variables de distribución generadas por el mapa caótico en esta iteración. En la iteración contemporánea, si \(\widetilde{E_{k}}\) tiene una aptitud superior a \(E_{k}\), renueva \(E_{k}\) en la próxima generación de comportamiento de búsqueda. Esta renovación refleja el comportamiento de un individuo, que realiza una expansión caótica en el espacio.
De 42, aprendemos que el uso de múltiples mapas caóticos a menudo puede lograr mejores resultados que el uso de un solo caos. Las combinaciones de mapas caóticos plurales pueden incorporar diferentes propiedades dinámicas y mantener la dinámica cambiando en el espacio. Hay varias combinaciones en el algoritmo, incluidas paralelo, secuencial y permutación, etc. En este estudio, utilizamos la idea tradicional de la rueda de la ruleta, donde la probabilidad de selección de cada individuo es proporcional a su valor de aptitud, y elegimos 12 mapas caóticos con diferentes dinámicas para formar una rueda de ruleta probabilística. Sin embargo, a diferencia de los métodos anteriores, tomamos la ideología de la meritocracia como guía para determinar el mapa caótico utilizado en las iteraciones. Para un problema dado, si un mapa caótico particular seleccionado por la meritocracia mejora más el algoritmo en una determinada iteración, entonces podemos suponer que este mapa caótico puede tener buena compatibilidad con el problema y su dinámica puede ayudar mejor al algoritmo a acceder a este problema. En la siguiente iteración, la probabilidad de seleccionar este mapa superior en la generación anterior se incrementa para encontrar el operador de búsqueda caótica más adecuado.
El uso de esta estrategia de ruleta basada en el principio de meritocracia permite al algoritmo encontrar el mejor operador caótico para resolver el problema de prueba rápidamente. Sin embargo, a partes de los mapas caóticos se les puede dar gran peso en la iteración inicial, lo que resulta en una falta de competencia para otros mapas caóticos en iteraciones posteriores. Esto hará que al algoritmo le falten algunos mapas relativamente superiores y sufra un desperdicio de recursos computacionales y una robustez deficiente. Con base en esta consideración, nos centramos en el exponente máximo de Lyapunov, una propiedad del caos en sí, con el objetivo de investigar el mejor operador local caótico a partir de las propiedades fundamentales de los mapas caóticos. Se introduce un mecanismo de compensación probabilístico para darle al operador una segunda oportunidad de elegir el mapa adecuado basándose en una selección meritocrática de la ruleta.
El máximo exponente de Lyapunov es un índice que mide la tendencia de un sistema caótico a moverse en el tiempo. Doce mapas caóticos diferentes tienen sus valores MLE. Podemos definir un coeficiente de correlación \(C_{ij}\) basado en el MLE, formulado como:
donde rand es un coeficiente aleatorio; \(L_{i}\) y \(L_{j}\) representan los valores MLE de dos mapeos caóticos aleatorios distintos. \(C_{ij}\) es el coeficiente de correlación normalizado a los valores MLE de dos mapas caóticos cualesquiera con valores distribuidos en (0, 1). En base a esto, podemos construir una matriz de 12*12 como se muestra a continuación:
Esta matriz representa la naturaleza de la asociación entre los mapas caóticos individuales. Una vez que hemos elegido el mapa caótico contemporáneo más apropiado, es razonable creer que el mapa caótico con el valor más cercano de su MLE también tiene una mejor mejora en el problema objetivo. Por lo tanto, le damos a los mapas óptimo y subóptimo un peso condicionante en el ajuste de probabilidad de la selección de la ruleta. Los pesos de ajuste \(W_{k}\) se definen de la siguiente manera:
donde s es un número ordinal de paridad que toma el valor 1 o 2. índice(s) representa la posición del índice en la ruleta de los mapas óptimos y subóptimos elegidos. \(\xi\) es una distribución de pesos caóticos en el intervalo (0, 2). Al ajustar las ponderaciones para el mapa caótico óptimo, ya que es el mapa de mayor prioridad, s toma el valor de 1. Al ajustar las ponderaciones para el mapa subóptimo, visto como una elección caótica subóptima, este mapa se compensa con un peso de ajuste más pequeño, s toma el valor de 2. La Figura 3 ilustra este proceso de ajuste de peso. Confiando en el ajuste de los valores de s y de correlación \(C_{ij}\), podemos racionalizar el alcance de los pesos de la ruleta para seleccionar el mapa caótico más apropiado y evitar la formulación prematura del mapa por parte del operador local caótico.
El proceso de ajustar la envergadura de la rueda ponderada.
El pseudocódigo esquemático de MCSMA se ilustra en el Algoritmo 1. El diagrama de flujo general de MCSMA se representa en la Fig. 4. Todo el flujo de operación de MCSMA se puede resumir generalmente de la siguiente manera:
MCSMA comienza a generar los mohos mucilaginosos \(M_i\) y evalúa la aptitud.
Inicialice doce tramos equivalentes de ruleta y genere la matriz de coeficientes de correlación C, probabilidad de mutación z.
De acuerdo con el mecanismo de retroalimentación de los mohos limosos, el algoritmo selecciona y actualiza \(M_i\) según la ecuación. (1).
Cuando el algoritmo coincide con el escenario predefinido, MCSMA ingresa a la fase de búsqueda local caótica y utiliza la selección de la rueda de la ruleta para seleccionar el operador del caos mediante la ecuación. (9).
Actualice el lapso de la ruleta mediante la ecuación. (12) y volver a sintonizar el caótico operador local.
Repita los pasos anteriores hasta alcanzar la condición terminal.
En resumen, establecemos un mecanismo de ajuste de peso de selección basado en la conexión de MLE para optimizar el caótico operador local. Basado en las propiedades cinemáticas del comportamiento caótico, se establece un mecanismo de detección plausible para guiar el patrón de búsqueda del operador local. Además, considerando los comportamientos de búsqueda y las trayectorias de los individuos del moho limoso en MCSMA, esperamos explorar una forma general de refinar la lógica de búsqueda subyacente del algoritmo y guiarlo para mejorar su confiabilidad durante todo el proceso de búsqueda44,45.
En este experimento no participaron sujetos humanos ni animales.
Un diagrama de flujo general de MCSMA.
Para demostrar la capacidad del algoritmo MCSMA propuesto, se seleccionaron numerosos conjuntos de pruebas para la experimentación. Para validar la efectividad de MCSMA en diferentes tipos de problemas de optimización en diferentes dimensiones, se eligieron 29 problemas de CEC2017 para realizar experimentos y análisis de datos. CEC2017 contiene 2 problemas unimodales (F1, F2), 7 problemas multimodales (F3-F9), 10 problemas de estado mixto (F10-F19) y 10 problemas de optimización combinatoria (F20-F29). Se aplicaron la prueba de suma de rangos de Wilcoxon, el gráfico de la curva de convergencia y el gráfico de caja y bigotes para analizar los datos experimentales de forma multifacética. Mientras tanto, con el propósito de examinar la capacidad del algoritmo para manejar problemas del mundo real, experimentamos con 22 problemas del mundo real de CEC2011 y entrenamiento de ANN.
Para CEC2017: La proporción de la población N está regulada por 100. La dimensión de los problemas D está diseñada con tres conjuntos de datos, es decir, 30, 50 y 100, respectivamente. Esta operación tiene como objetivo examinar la efectividad de MCSMA cuando se enfrenta a problemas de altas dimensiones y si tiene defectos como el sobreajuste. El número máximo de evaluaciones de aptitud se determina como \(10000*D\). Para obtener un resultado experimental más creíble, posicionamos el número de ejecuciones independientes en 51. El rango de búsqueda está organizado en el intervalo \([-100, 100]\).
Para CEC2011: El tamaño de la población N está regulado por 100. Debido a que el modelo de optimización se aprende del problema real, cada problema tiene su dimensión adaptada. La situación específica se resume en la Tabla 7. Establecimos 30 como el número de ejecuciones porque el tiempo de optimización requerido para los problemas de prueba requiere mucho tiempo.
El equipo experimental está configurado con 16 GB de RAM y una CPU Intel(R) Core(TM) i5-7400 de 3,00 GHz, y la plataforma de prueba fue MATLAB.
En este conjunto de experimentos de referencia, seleccionamos HHO46, WOA, MFO47, SSA48, SCA49 y GLPSO50 como objetivos de comparación además del algoritmo subyacente SMA. Estos algoritmos metaheurísticos están inspirados en los fenómenos biológicos de la naturaleza o en las leyes matemáticas de los últimos años. Por ejemplo, HHO simula el trabajo en equipo y los patrones de persecución de un halcón cazando un conejo y tiene excelentes ventajas a la hora de resolver problemas de un solo objetivo. Esperamos probar el rendimiento de MCSMA en diferentes circunstancias con estos algoritmos que poseen diferentes ventajas comparativas. La configuración de parámetros particular se enumera en la Tabla 2.
El primer criterio de evaluación es la prueba de suma de rangos de Wilcoxon, que es una prueba t de dos muestras51. El intervalo de confianza de la mediana se establece en \(95\%\) para inferir la distribución de los valores generales al comparar dos conjuntos de datos mutuamente independientes. La Tabla 3 muestra los datos experimentales finales comparados de los siete grupos de control en 30 dimensiones. “MEDIO” describe la mediana del conjunto de muestra de datos. "STD" se refiere a la desviación estándar, que es una estadística importante para medir el grado de dispersión de los datos. La prueba de Wilcoxon generalmente tiene tres tipos de resultados de comparación de clasificación: “\(+\)”, “\(\approx\)” y “-”, lo que indica que MCSMA tiene un rendimiento mejor, empatado o peor que sus algoritmos de comparación, respectivamente. En esta tabla, los símbolos “W/T/L” indican el número total de tres resultados de ganar, empatar y perder, respectivamente. El grupo de datos en negrita significa que los datos son el valor óptimo para el mismo grupo bajo esta función de prueba. El resultado de la comparación entre MCSMA y el algoritmo básico SMA es 19/6/4, lo que indica que este método mejorado que propusimos tiene un gran avance en el algoritmo. Los resultados de la comparación entre MCSMA y los otros seis algoritmos metaheurísticos son 28/1/0, 29/0/0, 29/0/0, 20/3/6, 29/0/0 y 16/7/6. , respectivamente. Este resultado positivo indica que MCSMA logra un rendimiento superior en la mayoría de los problemas probados. Comparamos los valores de p obtenidos de la prueba de suma de rangos de Wilcoxon con el nivel significativo de 0,05 para determinar la presencia de diferencias significativas en los resultados experimentales. La Tabla 4 proporciona una comparación detallada de los valores p para el caso de 30 dimensiones. Los símbolos que siguen a los valores p específicos representan el resultado final de la comparación experimental. Es evidente que los valores p obtenidos en comparación con la metaheurística original y otras potentes son sustancialmente más bajos, lo que indica una mejora significativa en el rendimiento. Además, examinamos la estabilidad y el rendimiento de MCSMA en 50 dimensiones y 100 dimensiones, resumidas en la Tabla 5 y la Tabla 6, respectivamente. Es notable que el valor primo del MCSMA y el número de ganancias aumentan a medida que aumenta la dimensionalidad. Esta tendencia demuestra la estabilidad de MCSMA en problemas de alta dimensión. Cuando otros algoritmos caen en el sobreajuste o en el óptimo local, MCSMA aún mantiene una mayor robustez.
El segundo criterio de evaluación es el diagrama de convergencia de diferentes algoritmos52. Esta prueba tiene como objetivo principal hacer coincidir visualmente la velocidad de convergencia con el rendimiento del algoritmo. Como se muestra en la Fig. 5, la coordinación horizontal representa el número de evaluaciones de diferentes problemas funcionales y la coordinación vertical representa el error de optimización promedio que el algoritmo puede lograr. Elegimos seis tipos diferentes de funciones F11, F12, F16, F23, F24 y F29 para mostrar la capacidad de convergencia de MCSMA. La pendiente de la curva de MCSMA es la más pequeña en el primer período de evaluación, lo que indica que MCSMA puede converger a las soluciones deseadas a un ritmo más rápido. El punto más bajo de la curva MCSMA es siempre la más pequeña de las seis funciones, lo que verifica que MCSMA tiene la capacidad de captar la mejor solución. En resumen, MCSMA posee una velocidad de convergencia rápida y un rendimiento excelente.
El tercer criterio de evaluación es el cuadro de cajas y bigotes. Este gráfico se utiliza principalmente para evaluar la calidad de las soluciones obtenidas por el algoritmo. Puede proporcionar visualmente las características de distribución entre diferentes grupos de datos y manifestar sus diferencias. Como se muestra en la Fig. 6, las líneas dentro del cuadro representan la mediana de los datos, y los bordes superior e inferior representan los cuadros de espaciado de cuartiles. El menor espacio entre los bordes del cuadro indica que la distribución general de los datos está en un intervalo de confianza, lo que sugiere una mayor robustez del algoritmo. Las líneas negras superior e inferior fuera del cuadro se refieren a los valores máximo y mínimo de la solución del algoritmo, respectivamente. El cuadro está ubicado en el espacio inferior, lo que sugiere la mejor calidad de solución del algoritmo. Las cruces rojas son los valores atípicos en los datos, y cuantos menos valores atípicos indican, el rendimiento más estable del algoritmo y la mayor confianza de los datos. Dado que los valores atípicos a menudo tienen una influencia opuesta en la distribución y las características de un conjunto de datos y afectan el análisis y juicio de los datos, debemos considerar este factor con cautela. En las seis funciones de prueba que seleccionamos, está claro que MCSMA tiene consistentemente la posición espacial más baja y el espaciado más pequeño. Esto ilustra que MCSMA tiene la más alta calidad de solución y la mayor estabilidad en este grupo de control.
En resumen, llevamos a cabo una serie de experimentos de comparación en diferentes dimensiones en el conjunto de pruebas estándar CEC2017 y analizamos los resultados experimentales utilizando tres métodos distintos de evaluación de datos53. El análisis muestra que MCSMA es bastante competitivo en términos de calidad general de la solución, tasa de convergencia, estabilidad del rendimiento y solidez del algoritmo.
La exposición de comparación de convergencia sobre las Funciones 11, 12, 16, 23, 24 y 29.
La exposición de diagramas de caja y bigotes sobre las funciones 11, 12, 16, 23, 24 y 29.
En el pasado, la investigación de algoritmos inteligentes se centraba principalmente en la teoría matemática y el modelado de simulación. Con las crecientes necesidades de productividad de la sociedad, la superioridad de un algoritmo también debería centrarse en su capacidad para resolver problemas reales de ingeniería y crear valor social54,55,56. Para probar la capacidad de MCSMA en algunos problemas complejos del mundo real a gran escala, elegimos CEC2011 como conjunto de prueba. CEC2011 contiene 22 funciones de prueba, que abarcan problemas del mundo real en varios dominios. La Tabla 7 revela los detalles de estos problemas del mundo real, incluidas dimensiones, tipos de restricciones y procesos de modelado.
La Tabla 8 muestra los resultados de la comparación entre MCSMA y los otros seis algoritmos metaheurísticos. El resultado de la comparación de “W/T/L” con el SMA original es 8/8/6. Aunque MCSMA no logra una ventaja significativa, obtiene la mayor cantidad de valores óptimos, lo que indica que el método que propusimos para mejorar aún tiene cierta mejora en el rendimiento al resolver problemas complejos del mundo real. En comparación con otros algoritmos metaheurísticos, MCSMA muestra resultados comparativos considerablemente satisfactorios. En particular, MCSMA logra los valores más óptimos para algunos problemas de prueba multimodales de alta dimensión, lo que indica que MCSMA tiene un potencial y ventajas considerables para algunos problemas de aplicaciones complejos. Por lo tanto, MCSMA se puede aplicar a los campos prácticos y de ingeniería actuales con resultados deseables tentativamente en el futuro57,58.
Actualmente, las redes neuronales se han convertido en una tecnología fundamental para resolver problemas de predicción de clasificación y procesamiento de imágenes. A partir de los modelos de redes neuronales artificiales de umbral lineal más primitivos, han surgido muchos modelos de redes nuevos con estructuras innovadoras y simulaciones de estructuras del cerebro humano59,60. El modelo de neurona dendrítica (DNM) es un modelo de red neuronal única que simula la estructura dendrítica primitiva de una célula nerviosa. Este modelo utiliza operadores lógicos y funciones sigmoideas para transmitir señales y simula las conexiones y propagación entre neuronas. Debido a su jerarquía sináptica específica, DNM puede sortear algunos defectos comunes de las redes de propagación tradicionales61. En esta sección, utilizamos DNM para examinar la viabilidad y el rendimiento de MCSMA en algunos problemas de clasificación generales.
La estructura de red de DNM se simula a partir de la conformación citosólica de las neuronas del cerebro humano, que consta de cuatro niveles: sinapsis, dendrita, membrana celular y soma. La Figura 7 ilustra la estructura general de una red neuronal dendrítica simple completamente conectada. Al igual que las células cerebrales reales, la función principal de las sinapsis es recibir y retener mensajes. En DNM, la función sigmoidea se selecciona como función de activación para cada sinapsis. La función sigmoidea protege la integridad de los datos mientras los comprime. Por lo tanto, establecer la función sigmoidea como función de activación en la capa sináptica puede proteger y procesar eficazmente la señal de datos en gran medida62. De manera similar a las señales de potencial cerebral, existen dos estados de potenciales celulares que dependen de la señal de entrada recibida por la capa sináptica: inhibición y excitación. Los dos estados están representados y regulados por dos parámetros que se pueden aprender en la función sigmoidea.
La jerarquía dendrítica es la estructura central de todo el modelo de red, donde cada nodo de cada rama neuronal recibe señales de la sinapsis. El proceso puede considerarse como un mapeo no lineal. Según la ciencia del cerebro, el procesamiento y las respuestas producidas por cada centro de respuesta en la corteza cerebral después de recibir señales de estímulos neuronales pueden considerarse como una ley multiplicativa primitiva. Entre cada nodo dendrítico se utilizan operaciones lógicas multiplicativas para preparar la señal para su posterior procesamiento. Después de esto, las señales de cada rama dendrítica se concentran en la estructura de la capa de membrana. En la estructura de la capa de membrana, todas las señales se suman linealmente y luego la señal total se transmite al citosol para que el núcleo tome la decisión final. En la capa de soma, existe un umbral dentro del cuerpo celular para determinar si la neurona emite una señal eléctrica. Después de que la señal de potencial total procesada por las primeras tres capas excede el valor, la neurona genera un potencial de excitación y transmite ese potencial de excitación a otras unidades neuronales. Se trata de un proceso completo de procesamiento de una sola neurona63.
Las señales potenciales en la capa dendrítica se podarán selectivamente de acuerdo con la estructura jerárquica y las propiedades funcionales de DNM. Cuando la salida de cualquier nódulo nervioso es 0, ese nervio dendrítico se considera una dendrita inválida para retener la unidad robusta con el impacto más fuerte en el cuerpo del soma. Debido al principio eléctrico del sistema, el funcionamiento de DNM se puede representar bien utilizando símbolos de circuitos lógicos como se muestra en la Fig. 8. La Figura 8 ilustra un proceso estructural completo de entrenamiento de DNM. Cuando los datos de entrada se introducen en el modelo como potenciales de activación, la salida final del soma se obtiene mediante filtrado, poda y otras operaciones.
Seleccionamos 7 tipos diferentes de problemas de clasificación del repositorio de aprendizaje automático de UC Irvine, que contienen campos médicos, biológicos, físicos y otros. La Tabla 9 resume las propiedades relevantes sobre los conjuntos de datos y el entrenamiento. En este experimento de entrenamiento, elegimos MCSMA, SMA, HHO, SSA y un algoritmo de retropropagación (BP) clásico como algoritmos de entrenamiento de comparación. BP es el algoritmo de aprendizaje de redes neuronales más popular y exitoso. Utiliza dos fases de propagación hacia adelante y hacia atrás para lograr un resultado objetivo predeterminado64. Para garantizar resultados experimentales confiables y justos, el número de evaluaciones es 30000 y la proporción de muestras de entrenamiento a muestras de prueba es 1:1. La Tabla 10 enumera los resultados de los cuatro algoritmos comparados en los conjuntos de entrenamiento y prueba. Los datos experimentales se miden por la precisión general. A partir de los resultados de la comparación, MCSMA logra la mejor precisión en los cinco conjuntos de prueba, lo que indica que el algoritmo propuesto logra las clasificaciones de muestras más correctas en múltiples problemas de clasificación.
A través de los conjuntos de pruebas de problemas del mundo real y los experimentos de entrenamiento de redes neuronales anteriores, podemos concluir que MCSMA puede hacer frente bien a algunos problemas prácticos de optimización y clasificación del mundo real.
Un diagrama esquemático del modelo de neurona dendrítica completamente conectada.
El procedimiento general de aprendizaje del modelo de red neuronal dendrítica.
En esta sección, realizamos una discusión exhaustiva sobre los parámetros y las propiedades de MCSMA. Además, se presenta un análisis sobre la efectividad de nuestro mecanismo de selección basado en MLE propuesto, comparándolo con los métodos tradicionales de mejora caótica. Esperamos tener un análisis y una discusión válidos de la estructura operativa subyacente del algoritmo.
En MCSMA, si el algoritmo realiza una búsqueda local caótica está determinado por un valor de evaluación. Cuando \(rand \le \eta\), los individuos del molde avanzan o retroceden a lo largo de la trayectoria original; cuando \(rand \ge \eta\), la población inicia una búsqueda local caótica y realiza un movimiento oscilatorio caótico a lo largo de la trayectoria del movimiento original. Con la complementariedad de comportamientos de búsqueda tan diferentes, se complementa la omisión del espacio de solución y se salta la trampa local. \(\eta\) es un valor aleatorio que puede tomar el valor de (0, 1], y puede tener un impacto en el rendimiento del algoritmo. No pudimos determinar el valor específico de \(\eta\) que daría como resultado la máxima mejora en la capacidad de MCSMA, por lo que diseñamos un conjunto de experimentos controlados. Se toman diez valores reales de \(\eta\) en intervalos de 0,1 y se prueban en el conjunto de problemas CEC2017.
La Tabla 11 revela el rendimiento bajo 10 parámetros diferentes de MCSMA en equipos de prueba CEC2017. Realizamos una prueba de Friedman en diez conjuntos de datos para llegar a una clasificación final. Cuando \(\eta\) toma 0,5, el algoritmo tiene el primer rango de Friedman y funciona mejor. Al analizar los datos, podemos concluir que el algoritmo funciona relativamente bien cuando \(\eta\) toma 0,4, 0,5 y 0,6. Esto indica que tomar valores para la mediana permite un buen acoplamiento del operador del caos y la búsqueda de moho limoso. Por lo tanto, establecemos el parámetro \(\eta\) de MCSMA en 0,5 en este estudio.
Para la metaheurística, el algoritmo mantiene las actualizaciones de la población y los movimientos para realizar un sondeo en el espacio de la solución. El tamaño y el movimiento de la población marcan una diferencia directa en la solidez y el rendimiento del algoritmo. Los individuos de la inteligencia poblacional primero exploran ampliamente el espacio, buscando más información para decidir si pueden obtener recompensas suficientes. Cuando muchos individuos siempre eligen una determinada región o siguen una trayectoria específica, es probable que queden atrapados en un óptimo local. En este punto, se necesitan individuos inteligentes para desarrollar soluciones o decisiones óptimas en torno a regiones de búsqueda conocidas en las que ayudar al algoritmo a escapar de la trampa del óptimo local. La cuestión de cómo diseñar razonablemente la estrategia del algoritmo en diferentes etapas es una cuestión crítica.
La trayectoria del movimiento de población en F6, F10 y F26.
Observamos visualmente las diferentes etapas del algoritmo mediante la trayectoria de búsqueda de la población. La Figura 9 muestra la trayectoria y tendencia del MCSMA en los tres problemas típicos (F6, F10 y F26) del conjunto de pruebas CEC2017 para la población de limo. En la función de múltiples picos F6, podemos ver que los mohos de limo se distribuyen aleatoriamente por todo el espacio al comienzo de la iteración. Se trata de un proceso de búsqueda, en el que la población busca sin rumbo información sobre posibles alimentos. Cuando el número de iteraciones llega a 5, podemos ver que la población mucilaginosa se agrupa rápidamente en áreas de posibles soluciones óptimas. A medida que aumenta el número de iteraciones, las bacterias del limo individuales organizan su estrategia de búsqueda de acuerdo con la información disponible e implementan una búsqueda local caótica en esta región. De \(t = 5\) a \(t = 10\), este proceso interpreta la explotación de una región particular por una población de bacterias del limo. Podemos ver claramente la estrategia de búsqueda de MCSMA específica de la población en los dos tipos diferentes de funciones de prueba, F10 y F26. Esto indica que la estrategia de búsqueda del MCSMA diseña racionalmente la trayectoria de la población para lograr la coordinación de búsqueda y explotación.
Cuando los algoritmos utilizan múltiples mecanismos de mejora, es difícil determinar cuál de estas mejoras en el algoritmo es beneficiosa. Cada algoritmo tiene detrás un funcionamiento matemático extremadamente complejo y existe un grado de efecto de caja negra. En esta sección, esperamos demostrar que este nuevo mecanismo de ajuste probabilístico basado en MLE que propusimos tiene una mejora genuina en el algoritmo.
Para investigar el impacto de MLE de interés en la perturbación del comportamiento caótico del sistema de búsqueda, diseñamos un grupo de experimentos de ablación controlada. En este conjunto de experimentos, verificamos la efectividad de este mecanismo de selección de ruleta basado en MLE mediante el uso de MCSMA y un algoritmo de moho mucilaginoso multicaótico (CSMA) como grupos de control. CSMA también utiliza un mecanismo de ruleta de probabilidad de éxito para involucrar mapas caóticos, pero no existe un ajuste de probabilidad de peso cuadrático basado en MLE. El operador de búsqueda local selecciona mapas caóticos basándose únicamente en la calidad de las soluciones sin considerar la importancia rectora de las propiedades matemáticas de los mapas caóticos en los pesos de selección. El Cuadro 12 muestra los resultados comparativos entre MCSMA y CSMA en CEC2017. En la Tabla 12, se puede observar que en el caso de los problemas unimodales F1 y F2, la inclusión de MLE parece tener un efecto negativo, indicando que las perturbaciones caóticas excesivas no son beneficiosas para la búsqueda evolutiva de la población en dimensiones extremadamente bajas. problemas unimodales. Sin embargo, en casi todos los problemas híbridos complejos y multimodales, MCSMA logra valores óptimos y demuestra un rendimiento significativamente anterior en comparación con CSMA sin la optimización de pesos basada en MLE. La consecuencia de “W/T/L” muestra la validez del diseño de la ruleta basada en MLE. Esto puede demostrar que la estrategia propuesta de elegir razonablemente el mejor operador local caótico basándose en las propiedades inherentes del caos, es decir, MLE, es genuinamente válida.
La evaluación de la complejidad del tiempo algorítmico tiene como objetivo estimar cómo el tiempo de ejecución y el uso de recursos de un programa aumentan con el crecimiento del tamaño de entrada. En el escenario inicial, N denota el tamaño de la población; D es la escala de dimensiones; T representa el número de iteraciones. La complejidad temporal de MCSMA se puede calcular de la siguiente manera:
El proceso de inicialización de la población necesita \(O(N\times D)+O(N)\).
Para generar la matriz de coeficientes de correlación C se necesita O(N).
La evaluación de la aptitud y la clasificación de los individuos cuesta \(O(N\times T\times (1+log N))\).
Actualizar \(M_{i}\) requiere \(O(N\times T\times D)\).
La fase de búsqueda local caótica cuesta \(O(N\times T\times D)\).
Entonces, la complejidad temporal de MCSMA se puede resumir como \(O((N+2N\times T)\times D+2N+N\times T\times (1+logN))\). Según 27, la complejidad temporal del SMA original es \(O((1+N\times T)\times D+N\times T\times (1+logN))\). Se puede observar que la complejidad temporal de ambos algoritmos permanece en el orden lineal-logarítmico, lo que indica que nuestro método de mejora propuesto no genera un aumento significativo en la complejidad del programa y no requiere sacrificar recursos computacionales para mejorar el rendimiento.
En este artículo, proponemos un algoritmo novedoso, MCSMA, que incorpora un operador local multicaótico al tiempo que conserva la búsqueda de retroalimentación de bacterias pegajosas única en SMA. Consideramos por primera vez la propiedad fundamental del movimiento caótico, es decir, el máximo exponente de Lyapunov, y la añadimos como criterio de evaluación a la ruleta meritocrática multicaótica. Al construir la matriz de correlación MLE del mapa caótico como factor moderador para el ajuste probabilístico, se selecciona el operador caótico más eficiente y adecuado para el algoritmo. Comparamos el rendimiento de MCSMA en tres tipos diferentes de conjuntos de pruebas, es decir, IEEE CEC2017, CEC2011 y una desafiante tarea de aprendizaje de redes neuronales. Los resultados experimentales verifican la eficacia y viabilidad de MCSMA.
Ha sido un desafío apremiante para la inteligencia computacional abordar de manera efectiva la necesidad de compensar algunos inconvenientes específicos de los algoritmos evitando comprometer sus ventajas12,65. Aspiramos a construir un mecanismo de mejora general para mejorar la capacidad de explotación local de los algoritmos existentes, y la cuestión de cómo optimizar y generalizar la estructura de operadores locales tan caóticos es un foco de trabajo futuro. También vale la pena aplicar MCSMA a otras áreas, como la programación de control, el modelado industrial y el procesamiento de datos66,67.
Los datos que respaldan los hallazgos de este estudio están disponibles del autor correspondiente previa solicitud razonable.
Cully, A. & Demiris, Y. Optimización de la calidad y la diversidad: un marco modular unificador. Traducción IEEE. Evolución. Computadora. 22, 245–259 (2017).
Artículo de Google Scholar
Miikkulainen, R. & Forrest, S. Una perspectiva biológica sobre la computación evolutiva. Nat. Mach. Intel. 3, 9-15 (2021).
Artículo de Google Scholar
Tang, J., Liu, G. & Pan, Q. Una revisión de algoritmos representativos de inteligencia de enjambre para resolver problemas de optimización: aplicaciones y tendencias. IEEE/CAA J. Autom. Sínica 8, 1627–1643 (2021).
Artículo MathSciNet Google Scholar
Hua, Y., Liu, Q., Hao, K. & Jin, Y. Un estudio de algoritmos evolutivos para problemas de optimización multiobjetivo con frentes de Pareto irregulares. IEEE/CAA J. Autom. Sínica 8, 303–318 (2021).
Artículo MathSciNet Google Scholar
Abualigah, L. et al. Algoritmos de optimización metaheurística para resolver problemas de diseño de ingeniería mecánica del mundo real: un estudio completo, aplicaciones, análisis comparativo y resultados. Computación neuronal. Aplica. 34, 4081–4110 (2022).
Artículo de Google Scholar
Mohamed, MAE, Nasser Ahmed, S. y Eladly Metwally, M. Seguimiento del punto de máxima potencia basado en un algoritmo de optimización aritmética para un sistema fotovoltaico conectado a la red. Ciencia. Rep. 13, 5961 (2023).
Artículo ADS CAS PubMed PubMed Central Google Scholar
Li, B., Wu, G., He, Y., Fan, M. y Pedrycz, W. Una descripción general y un estudio experimental de algoritmos de optimización basados en el aprendizaje para el problema de rutas de vehículos. IEEE/CAA J. Autom. Sínica 9, 1115-1138 (2022).
Artículo de Google Scholar
Yu, Y. et al. Evolución diferencial basada en red sin escala para resolver la optimización de funciones y la estimación de parámetros de modelos fotovoltaicos. Evolución del enjambre. Computadora. 2022, 101142 (2022).
Artículo de Google Scholar
Wang, Y., Yu, Y., Gao, S., Pan, H. y Yang, G. Un algoritmo de búsqueda gravitacional jerárquico con una constante gravitacional efectiva. Evolución del enjambre. Computadora. 46, 118-139 (2019).
Artículo de Google Scholar
Wang, J. y col. Algoritmos de búsqueda multiobjetivo de múltiples vecindarios para el tamaño de la flota multiobjetivo y problemas de ubicación y ruta combinados con ventanas de tiempo. Traducción IEEE. Sistema. Hombre Cybern.: Sist. 51, 2284–2298 (2019).
Artículo de Google Scholar
Lei, Z., Gao, S., Gupta, S., Cheng, J. y Yang, G. Un algoritmo de búsqueda gravitacional de aprendizaje agregativo con constantes gravitacionales autoadaptativas. Sistema experto. Aplica. 152, 113396 (2020).
Artículo de Google Scholar
Dokeroglu, T., Sevinc, E., Kucukyilmaz, T. & Cosar, A. Un estudio sobre algoritmos metaheurísticos de nueva generación. Informática. Indiana Ing. Rev.137, 106040 (2019).
Artículo de Google Scholar
Lei, Z., Gao, S., Zhang, Z., Zhou, M. y Cheng, J. MO4: Un algoritmo evolutivo de muchos objetivos para la predicción de la estructura de proteínas. Traducción IEEE. Evolución. Computadora. 26, 417–430 (2021).
Artículo de Google Scholar
Abud, A. et al. DPb-MOPSO: un algoritmo dinámico de optimización de enjambre de partículas multiobjetivo de dos niveles de Pareto. Aplica. Computación blanda. 129, 109622 (2022).
Artículo de Google Scholar
Bonabeau, E., Dorigo, M. & Theraulaz, G. Inspiración para la optimización del comportamiento social de los insectos. Naturaleza 406, 39–42 (2000).
Artículo ADS CAS PubMed Google Scholar
Dorigo, M. Optimización, aprendizaje y algoritmos naturales. Tesis doctoral, Politecnico di Milano (1992).
Dorigo, M., Di Caro, G. & Gambardella, LM Algoritmos Ant para optimización discreta. Artif. Vida 5, 137–172 (1999).
Artículo CAS PubMed Google Scholar
Wang, Z., Gao, S., Zhang, Y. & Guo, L. Optimización de colonias de hormigas basada en secuencias probabilísticas incorporadas con incertidumbre simétrica para la selección de características en la clasificación. Sistema basado en el conocimiento. 256, 109874 (2022).
Artículo de Google Scholar
Gao, S., Wang, Y., Cheng, J., Inazumi, Y. y Tang, Z. Optimización de colonias de hormigas con agrupación para resolver el problema de enrutamiento de ubicación dinámica. Aplica. Matemáticas. Computadora. 285, 149-173 (2016).
MathSciNet MATEMÁTICAS Google Scholar
Lei, Z., Gao, S., Wang, Y., Yu, Y. & Guo, L. Un optimizador de enjambre de partículas incorporado en una estrategia de reemplazo adaptativo para la optimización del diseño de parques eólicos. Conversaciones de energía. Administrar. 269, 116174 (2022).
Artículo de Google Scholar
Nguyen, TA Un enfoque novedoso con un algoritmo de control integral proporcional de modo deslizante difuso ajustado por el método difuso (FSMPIF). Ciencia. Rep. 13, 7327 (2023).
Artículo ADS CAS PubMed PubMed Central Google Scholar
Xia, X. y col. Optimización del enjambre de partículas de archivos triples. Traducción IEEE. Cibern. 50, 4862–4875 (2020).
Artículo PubMed Google Scholar
Yang, X.-S. Algoritmo Firefly, funciones de prueba estocásticas y optimización del diseño. En t. J. Computación bioinspirada. 2, 78–84 (2010).
Artículo de Google Scholar
Mirjalili, S. & Lewis, A. El algoritmo de optimización de ballenas. Adv. Ing. Software. Rev. 95, 51–67 (2016).
Artículo de Google Scholar
Yang, X.-S. Algoritmo de polinización de flores para optimización global. En Conferencia internacional sobre computación no convencional y computación natural, 240–249 (Springer, 2012).
Karaboga, D. & Basturk, B. Un algoritmo potente y eficiente para la optimización de funciones numéricas: algoritmo de colonia de abejas artificiales (ABC). J. Óptima global. 39, 459–471 (2007).
Artículo MathSciNet MATEMÁTICAS Google Scholar
Li, S., Chen, H., Wang, M., Heidari, AA y Mirjalili, S. Algoritmo del moho limoso: un nuevo método para la optimización estocástica. Futuro. Genero. Computadora. Sistema. 111, 300–323 (2020).
Artículo de Google Scholar
Qian, T., Zhang, Z., Gao, C., Wu, Y. y Liu, Y. Un sistema de colonia de hormigas basado en la red physarum. En Conferencia internacional sobre inteligencia de enjambre, 297–305 (Springer, 2013).
Monismith, DR & Mayfield, BE El molde de limo como modelo para la optimización numérica. En el Simposio IEEE Swarm Intelligence de 2008, 1–8 (IEEE, 2008).
Uncuoglu, E. y col. Comparación de métodos de redes neuronales, regresión gaussiana, máquina de vectores de soporte, memoria a corto plazo, programación genética multigénica y árboles M5 para resolver problemas de ingeniería civil. Aplica. Computación blanda. 129, 109623 (2022).
Artículo de Google Scholar
Ng, K., Lee, CK, Chan, FT y Lv, Y. Revisión de enfoques metaheurísticos para la investigación de operaciones en la parte aérea. Aplica. Computación blanda. 66, 104-133 (2018).
Artículo de Google Scholar
Houssein, EH y cols. Un algoritmo eficiente del moho limoso para resolver problemas de optimización multiobjetivo. Sistema experto. Aplica. 187, 115870 (2022).
Artículo de Google Scholar
Hu, J. y col. Algoritmo de moho limoso de forrajeo disperso: variantes continuas y binarias para optimización global y selección de funciones basada en envoltura. Sistema basado en el conocimiento. 237, 107761 (2022).
Artículo de Google Scholar
Hu, G., Du, B. y Wei, G. HG-SMA: Algoritmo de moho limoso guiado jerárquico para una planificación de rutas fluida. Artif. Intel. Apocalipsis 56, 1–61 (2023).
Artículo de Google Scholar
Liu, Y. et al. Algoritmos de enjambre SALP multipoblación asistidos por el caos: marco y estudios de casos. Sistema experto. Aplica. 168, 114369 (2021).
Artículo de Google Scholar
Jia, D., Zheng, G. & Khan, MK Un algoritmo de evolución diferencial memética eficaz basado en una búsqueda local caótica. inf. Ciencia. 181, 3175–3187 (2011).
Artículo de Google Scholar
Nakagaki, T., Yamada, H. y Tóth, Á. Resolución de laberintos por un organismo ameboide. Naturaleza 407, 470–470 (2000).
Artículo ADS CAS PubMed Google Scholar
Tero, A. et al. Reglas para el diseño de redes adaptativas de inspiración biológica. Ciencia 327, 439–442 (2010).
Artículo ADS MathSciNet CAS PubMed MATH Google Scholar
Caponetto, R., Fortuna, L., Fazzino, S. & Xibilia, MG Secuencias caóticas para mejorar el rendimiento de algoritmos evolutivos. Traducción IEEE. Evolución. Computadora. 7, 289–304 (2003).
Artículo de Google Scholar
Alatas, B. Algoritmos de búsqueda de armonía caótica. Aplica. Matemáticas. Computadora. 216, 2687–2699 (2010).
MATEMÁTICAS Google Scholar
Yuan, X., Wang, P., Yuan, Y., Huang, Y. y Zhang, X. Un nuevo algoritmo de colonia de abejas artificial caótica de inspiración cuántica para un problema de flujo de energía óptimo. Conversaciones de energía. Administrar. 100, 1–9 (2015).
Artículo de Google Scholar
Gao, S. y col. Caóticos algoritmos de evolución diferencial basados en búsqueda local para optimización. Traducción IEEE. Sistema. Hombre Cybern.: Sist. 51, 3954–3967 (2019).
Artículo de Google Scholar
Yu, K. y col. Un enfoque de predicción en capas guiado por correlación para la optimización multiobjetivo dinámica evolutiva. Traducción IEEE. Evolución. Computadora. 2022, 1–1. https://doi.org/10.1109/TEVC.2022.3193287 (2022).
Artículo de Google Scholar
Siddique, A., Vai, MI & Pun, SH Un motor de aprendizaje neuromórfico de bajo costo basado en un algoritmo de aprendizaje SNN supervisado de alto rendimiento. Ciencia. Rep. 13, 6280 (2023).
Artículo ADS CAS PubMed PubMed Central Google Scholar
Azizi, M., Baghalzadeh Shishehgarkhaneh, M., Basiri, M. & Moehler, RC Squid Game Optimizer (SGO): un algoritmo metaheurístico novedoso. Ciencia. Representante 13, 1-24 (2023).
Google Académico
Heidari, AA y cols. Optimización de Harris Hawks: algoritmo y aplicaciones. Futuro. Genero. Computadora. Sistema. 97, 849–872 (2019).
Artículo de Google Scholar
Mirjalili, S. Algoritmo de optimización de llama de polilla: un paradigma heurístico novedoso inspirado en la naturaleza. Sistema basado en el conocimiento. 89, 228–249 (2015).
Artículo de Google Scholar
Mirjalili, S. et al. Algoritmo de enjambre SALP: un optimizador bioinspirado para problemas de diseño de ingeniería. Adv. Ing. Software. 114, 163-191 (2017).
Artículo de Google Scholar
Mirjalili, S. SCA: Un algoritmo seno coseno para resolver problemas de optimización. Sistema basado en el conocimiento. 96, 120-133 (2016).
Artículo de Google Scholar
Gong, Y.-J. et al. Optimización del enjambre de partículas de aprendizaje genético. Traducción IEEE. Cibern. 46, 2277–2290 (2015).
Artículo PubMed Google Scholar
Carrasco, J., García, S., Rueda, M., Das, S. & Herrera, F. Tendencias recientes en el uso de pruebas estadísticas para comparar algoritmos de computación evolutiva y de enjambre: pautas prácticas y una revisión crítica. Evolución del enjambre. Computadora. 54, 100665 (2020).
Artículo de Google Scholar
Wang, K. y col. Algoritmo de búsqueda esférica con control de población adaptativo para problemas globales de optimización continua. Aplica. Computación blanda. 132, 109845 (2022).
Artículo de Google Scholar
Tosa, Y., Omae, R., Matsumoto, R., Sumitani, S. y Harada, S. Algoritmo de control automatizado basado en datos para el crecimiento de cristales en zona flotante derivado del aprendizaje por refuerzo. Ciencia. Representante 13, 1–9 (2023).
Artículo de Google Scholar
Liang, J. y col. Una encuesta sobre optimización multiobjetivo restringida evolutivamente. Traducción IEEE. Evolución. Computadora. 27, 1–1 (2022).
Google Académico
Ma, L. y col. Aprender a optimizar: adaptación del aprendizaje por refuerzo de vectores de referencia a la optimización restringida de muchos objetivos del sistema de carga de cobre industrial. Traducción IEEE. Cibern. 52, 12698–12711 (2021).
Artículo de Google Scholar
Yu, Y. et al. Una evolución diferencial controlada por la diversidad de la población para la estimación de parámetros de modelos solares fotovoltaicos. Sostener. Tecnología energética. Evaluar. 51, 101938 (2022).
Google Académico
Pham, M., Yuan, Y., Rana, A., Osher, S. y Miao, J. Algoritmo preciso de reconstrucción iterativa del espacio real (RESIRE) para tomografía. Ciencia. Rep. 13, 5624 (2023).
Artículo ADS CAS PubMed PubMed Central Google Scholar
Wang, Y., Gao, S., Zhou, M. & Yu, Y. Un algoritmo de búsqueda gravitacional de múltiples capas para optimización de funciones y problemas del mundo real. IEEE/CAA J. Autom. Sínica 8, 94-109 (2020).
Artículo CAS Google Scholar
Gao, S. y col. Modelo de neuronas dendríticas de valores totalmente complejos. Traducción IEEE. Red neuronal. Aprender. Sistema. 34, 1-14 (2023).
Artículo de Google Scholar
Lee, C., Hasegawa, H. & Gao, S. Redes neuronales de valores complejos: un estudio completo. IEEE/CAA J. Autom. Sínica 9, 1406-1426 (2022).
Artículo de Google Scholar
Xu, Z. y col. Modelo de neuronas dendríticas entrenado mediante un algoritmo de evolución diferencial mejorado con retroalimentación de información para clasificación. Sistema basado en el conocimiento. 233, 107536 (2021).
Artículo de Google Scholar
Yu, Y. et al. Mejora del modelo de neuronas dendríticas con evolución diferencial basada en redes dinámicas y sin escalas. IEEE/CAA J. Autom. Sínica 9, 99-110 (2021).
Artículo de Google Scholar
Gao, S. y col. Modelo de neuronas dendríticas con algoritmos de aprendizaje efectivos para clasificación, aproximación y predicción. Traducción IEEE. Red neuronal. Aprender. Sistema. 30, 601–614 (2018).
Artículo PubMed Google Scholar
Kassaymeh, S. y col. Optimización de redes neuronales de retropropagación y modelado de estimación de defectos de software utilizando un algoritmo de recocido simulado basado en un optimizador SALP Swarm híbrido. Sistema basado en el conocimiento. 244, 108511 (2022).
Artículo de Google Scholar
Wang, Z. y col. Optimización de colonias de hormigas clasificadoras no dominadas basadas en la teoría de la información para la selección de características multiobjetivo en la clasificación. Traducción IEEE. Cibern. 53, 1–14. https://doi.org/10.1109/TCYB.2022.3185554 (2022).
Artículo CAS Google Scholar
Eiben, AE y Smith, J. De la computación evolutiva a la evolución de las cosas. Naturaleza 521, 476–482 (2015).
Artículo ADS CAS PubMed Google Scholar
Zhan, Z.-H., Shi, L., Tan, KC y Zhang, J. Un estudio sobre computación evolutiva para una optimización continua compleja. Artif. Intel. Rev. 55, 59-110 (2022).
Artículo de Google Scholar
Descargar referencias
Esta investigación fue parcialmente financiada por la Sociedad Japonesa para la Promoción de la Ciencia (JSPS) KAKENHI bajo la subvención JP22H03643, el apoyo de la Agencia Japonesa de Ciencia y Tecnología (JST) para la investigación pionera iniciada por la próxima generación (SPRING) bajo la subvención JPMJSP2145, y JST a través de la Establecimiento de becas universitarias para la creación de innovación científica y tecnológica en el marco de la subvención JPMJFS2115.
Facultad de Ingeniería, Universidad de Toyama, Toyama-shi, 930-8555, Japón
Jiaru Yang, Yu Zhang, Zhenyu Lei y Shangce Gao
Facultad de Ciencias, Universidad Forestal de Nanjing, Nanjing, 210037, China
Ting Jin
Facultad de Ingeniería Eléctrica, Información y Comunicaciones, Universidad de Kanazawa, Ishikawa, 9201192, Japón
Yuki Todo
También puedes buscar este autor en PubMed Google Scholar.
También puedes buscar este autor en PubMed Google Scholar.
También puedes buscar este autor en PubMed Google Scholar.
También puedes buscar este autor en PubMed Google Scholar.
También puedes buscar este autor en PubMed Google Scholar.
También puedes buscar este autor en PubMed Google Scholar.
JY: Escritura: borrador original, metodología, conceptualización, software. YZ: Análisis formal, redacción: revisión y edición, conceptualización. TJ: Metodología, visualización. ZL: curación de datos, redacción: revisión y edición. YT: Análisis formal, validación. SG: Redacción: revisión y edición, recursos, administración de proyectos, supervisión.
Correspondencia a Shangce Gao.
Los autores declaran no tener conflictos de intereses.
Springer Nature se mantiene neutral con respecto a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.
Acceso Abierto Este artículo está bajo una Licencia Internacional Creative Commons Attribution 4.0, que permite el uso, compartir, adaptación, distribución y reproducción en cualquier medio o formato, siempre y cuando se dé el crédito apropiado a los autores originales y a la fuente. proporcione un enlace a la licencia Creative Commons e indique si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la normativa legal o excede el uso permitido, deberá obtener permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.
Reimpresiones y permisos
Yang, J., Zhang, Y., Jin, T. et al. Algoritmo de moho mucilaginoso caótico múltiple basado en exponentes máximos de Lyapunov para optimización en el mundo real. Informe científico 13, 12744 (2023). https://doi.org/10.1038/s41598-023-40080-1
Descargar cita
Recibido: 14 de mayo de 2023
Aceptado: 04 de agosto de 2023
Publicado: 07 de agosto de 2023
DOI: https://doi.org/10.1038/s41598-023-40080-1
Cualquier persona con la que comparta el siguiente enlace podrá leer este contenido:
Lo sentimos, actualmente no hay un enlace para compartir disponible para este artículo.
Proporcionado por la iniciativa de intercambio de contenidos Springer Nature SharedIt
Al enviar un comentario, acepta cumplir con nuestros Términos y pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.