Mostrar el registro sencillo del ítem

Complejidad en redes neuronales - retropropagación

dc.creatorVargas Sánchez, German Gonzalo
dc.date2018-05-15
dc.date.accessioned2020-08-21T20:40:34Z
dc.date.available2020-08-21T20:40:34Z
dc.identifierhttps://revistas.unbosque.edu.co/index.php/RevTec/article/view/2312
dc.identifier10.18270/rt.v16i1.2312
dc.identifier.urihttp://test.repositoriodigital.com:8080/handle/123456789/10800
dc.descriptionEste artículo muestra una forma para aplicar el concepto de complejidad a redes neuronales artificiales, particularmente a las que utilizan el método backpropagation. Apoyados en el principio hologramático del pensamiento complejo se encontró un método para preparar los datos de entrada a la red neuronal de acuerdo con los valores esperados de las salidas, separando los datos en dos conjunto los cuales tienen como patrones de entrenamiento el promedio de cada conjunto de datos.es-AR
dc.descriptionEste artículo muestra una forma para aplicar el concepto de complejidad a redes neuronales artificiales, particularmente a las que utilizan el método backpropagation. Apoyados en el principio hologramático del pensamiento complejo se encontró un método para preparar los datos de entrada a la red neuronal de acuerdo con los valores esperados de las salidas, separando los datos en dos conjunto los cuales tienen como patrones de entrenamiento el promedio de cada conjunto de datos.es-ES
dc.formatapplication/pdf
dc.languagespa
dc.publisherUniversidad El Bosquees-ES
dc.relationhttps://revistas.unbosque.edu.co/index.php/RevTec/article/view/2312/1744
dc.relation/*ref*/Luna, P. T., Eleuterio, R. A., Rosas, R. M. V., & Méndez, B. G. R. (2010). Optimización del entrenamiento para Redes Neuronales Artificiales. CIENCIA ergo-sum, 17(3), 313-317.
dc.relation/*ref*/Marco Antonio Valencia Reyes1 Cornelio Yáñez Márquez2, & Fernández3, L. P. S. (2006). Algoritmo Backpropagation para Redes Neuronales : conceptos y aplicaciones. Thesis.
dc.relation/*ref*/Izaurieta, F., & Saavedra, C. (1999). Redes Neuronales Artificiales. Charlas de Fisica, 1–15. doi:10.1016/S0210-5691(05)74198-X
dc.relation/*ref*/Martinj Del Brio, B., & Serrano Cinca, C. (1995). Fundamentos De Las Redes Neuronales Artificiales: Hardware Y Software. Scire. Representación Y Organización Del Conocimiento, 1 , 103–125. Retrieved from http://ibersid.eu/ojs/index.php/scire/article/ view/1036/1018
dc.relation/*ref*/Montaño, J. J. (2002). Redes Neuronales Artificiales aplicadas al Análisis de Datos. Network, 275.
dc.relation/*ref*/Palmer Pol, a, & Montaño Moreno, J. J. (1999). ¿ Qué son las redes neuronales artificiales? Aplicaciones realizadas en el ámbito de las adiciones. Adicciones, 11, 243–256. Retrieved from http://disi.unal.edu. co/~lctorress/RedNeu/LiRna001.pdf
dc.relation/*ref*/Phansalkar, V. V., & Sastry, P. S. (1994). Analysis of the backpropagation algorithm with momentum. IEEE Transactions on Neural Networks, 5, 505–506. doi:10.1109/72.286925
dc.relation/*ref*/Flores Burgess, A., Prieto Riascos, L., & Llavero Bernal, F. (2011). Redes neuronales como sistemas complejos adaptativos.
dc.relation/*ref*/Maldonado, C. E., & Cruz, N. A. G. (2011). El mundo de las ciencias de la complejidad: una investigación sobre qué son, su desarrollo y sus posibilidades. Editorial Universidad del Rosario, Universidad Colegio Mayor de Nuestra Señora del Rosario, Facultad de Administración.
dc.relation/*ref*/Toribio, P., & Alejo, R. (2009). Complejidad de los datos en las Redes Neuronales Artificiales: Estado de la cuestión. In 7 Congreso Internacional de Cómputo en Optimización y Software, CICOS.
dc.relation/*ref*/Zhang, H., Xu, D., & Zhang, Y. (2014). Boundedness and convergence of split-complex backpropagation algorithm with momentum and penalty. Neural Processing Letters, 39, 297–307. doi:10.1007/s11063-013-9305-x
dc.relation/*ref*/Che, Z.-G., Chiang, T.-A., & Che, Z.-H. (2011). Feed-forward neural networks training: A comparison between genetic algorithm and backpropagation learning algorithm. International Journal of Innovative Computing, Information and Control, 7, 5839–5850.
dc.relation/*ref*/Fahlman, S. E., & Fahlman, S. E. (1988). An empirical study of learning speed in backpropagation networks. Neural Networks, 6, 1–19. Retrieved from http://scholar.google.com/scholar?cluster=3383018529262918047&hl=en
dc.relation/*ref*/Kolen, J. F., & Pollack, J. B. (1990). Backpropagation is Sensitive to Initial Conditions. Complex Systems, 4, 269–280. [15] Rehman, M. Z., & Nawi, N. M. (2011). Improving the Accuracy of Gradient Descent Backpropagation Algorithm (GDAM) on Classification Problems. International Journal on New Computer Architectures and Their Applications (IJNCAA) The Society of Digital Information and Wireless Communications, 1, 861–870.
dc.relation/*ref*/Van Ooyen, a., & Nienhuis, B. (1992). Improving the convergence of the backpropagation algorithm. Neural Networks, 5, 465–471. doi:10.1016/0893-6080(92)90008-7
dc.rightsDerechos de autor 2018 Journal of Technologyes-ES
dc.rightshttp://creativecommons.org/licenses/by/4.0es-ES
dc.sourceJournal of Technology; Vol 16 No 1 (2017): Ingeniería de recursos Hídricos; 9-14en-US
dc.sourceRevista de Tecnología; ##issue.vol## 16 ##issue.no## 1 (2017): Ingeniería de recursos Hídricos; 9-14es-AR
dc.sourceRevista de Tecnología; Vol. 16 Núm. 1 (2017): Ingeniería de recursos Hídricos; 9-14es-ES
dc.source1692-1399
dc.subjectRedes neuronales artificialeses-ES
dc.subjectretropropagaciónes-ES
dc.subjectcomplegidades-ES
dc.titleComplejidad en redes neuronales - retropropagaciónes-AR
dc.titleComplejidad en redes neuronales - retropropagaciónes-ES
dc.typeinfo:eu-repo/semantics/article
dc.typeinfo:eu-repo/semantics/publishedVersion


Ficheros en el ítem

FicherosTamañoFormatoVer

No hay ficheros asociados a este ítem.

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem