Zobrazeno 1 - 10
of 13
pro vyhledávání: '"Ramírez Moreno, David Fernando"'
Autor:
Dávalos García, Alexánder, Orejuela Bolaños, Juan David, Ramírez Moreno, David Fernando, Serrano Quimbaya, José Julian, Jaramillo Suárez, Héctor Enrique, Urhán Rojas, Magdalena, Vásquez Olave, Martha Cecilia, Rivera Gómez, Carmen Cecilia, Calero Cruz, Solón Alberto
Publikováno v:
Universidad Autónoma de Occidente
Repositorio Institucional UAO
Repositorio Institucional UAO
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=od________25::0de67c5f5383669c64fac68fd7f1b461
https://hdl.handle.net/10614/11032
https://hdl.handle.net/10614/11032
Publikováno v:
Universidad Autónoma de Occidente
Repositorio Institucional UAO
Repositorio Institucional UAO
El modelo de atención visual bottom-up propuesto por Itti et al., 2000 [1], ha sido un modelo popular en tantoexhibe cierta evidencia neurobiológica de la visión en primates. Este trabajo complementa el modelo computacional de este fenómeno desde
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=od________25::41b37aab20ba1c649738dbc9b619bc59
Publikováno v:
RED: Repositorio Educativo Digital UAO
Universidad Autónoma de Occidente
instacron:Universidad Autónoma de Occidente
Universidad Autónoma de Occidente
instacron:Universidad Autónoma de Occidente
Este trabajo propone un modelo de atención visual para el análisis de escenas dinámicas que complementa el modelo de Itti & Koch (2000) [Itti L., & Koch C. (2000). A saliency-based search mechanism for overt and covert shifts of visual attention.
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=dedup_wf_001::e35ca8e031c612fa8b50e9c2e5867def
Autor:
Magjarevic, R., Nagel, J. H., Müller-Karger, Carmen, Wong, Sara, La Cruz, Alexandra, Ramírez Moreno, David Fernando, Berrío Pérez, J. S., Mina Corrales, A. F., León Salazar, O. E., Quintero Rodríguez, I. F.
Publikováno v:
IV Latin American Congress on Biomedical Engineering 2007, Bioengineering Solutions for Latin America Health; 2008, p701-704, 4p
Este proyecto está enfocado en el desarrollo de un aplicativo basado en un algoritmo de Machine Learning para la asistencia en la detección temprana del síndrome del túnel carpiano. Para alcanzar este objetivo se construyó una base de datos, la
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=od________25::7ed4f6a369043437b83945d28ab8529f
https://red.uao.edu.co/
https://red.uao.edu.co/
La Inteligencia Artificial (IA) se ha proyectado en la última década como una herramienta innovadora, implementada en diversas áreas como la ingeniería y la medicina entre otras disciplinas, para problemas de gran complejidad cuya solución se pu
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=od________25::a830f02286e8b69aab4b64a2d9b550e5
https://red.uao.edu.co/
https://red.uao.edu.co/
El desarrollo de este proyecto está encaminado en la investigación de desarrollar nuevos diseños de robots bio-inspirados controlados por medio de redes neuronales computacionales biológicamente inspiradas. Se desarrolló un diseño de un robot c
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=od________25::83bee981fcdd2bbc8a6618add012bc37
https://red.uao.edu.co/
https://red.uao.edu.co/
Este trabajo presenta la simulación de un robot tipo salamandra, controlado mediante neurocontrol motor, con señales generadas con redes neuronales llamadas CPGs (central pattern generator), que se emplean para simular la locomoción de una salaman
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=od________25::6dd6f5014b95090a977663d8caf2cd34
https://red.uao.edu.co/
https://red.uao.edu.co/
Autor:
Vélez Caicedo, Juan David
Publikováno v:
Universidad Autónoma de Occidente
Repositorio Institucional UAO
[1]. M. Sabourin, A. Mitiche, Optical character recognition by a neural network, vol.5, num 5, 843-852.[En línea]. Disponible en https://doi.org/10.1016/S0893-6080(05)80144-3 [2]. #. #, “Colombia tiene 1,14 millones de personas con problemas visuales,” El país, [En línea]. Disponible en https://www.elpais.com.co/colombia/tiene-1-14-millones-de-personas-con-problemas-visuales.html [3]. N. Zuluaga, L. Arrazola, V. González, J. Monsalvo, “Las dificultades para las personas con discapacidad visual en las escuelas públicas,” El Espectador, [En línea]. Disponible en https://www.elespectador.com/noticias/nacional/atlantico/las-dificultades-para-las-personas-con-discapacidad-visual-en-las-escuelas-publicas-articulo-791509. [4]. Nación, “La deuda del país con su población en condición de discapacidad,” El Tiempo, [En línea]. Disponible en https://www.eltiempo.com/colombia/otras-ciudades/poblacion-en-condicion-de-discapacidad-y-sus-necesidades-en-colombia-90880 [5]. #. #, (2014, Ago. 30). “OMS | 10 datos sobre la ceguera y la discapacidad visual”. [Internet]. Disponible en http://www.who.int/features/factfiles/blindness/es/ [6]. #. #, (2018, Ene. 11). “19 Tecnologías de Inteligencia Artificial que dominarán el 2018”. [Internet]. Disponible en https://blog.adext.com/tecnologias-inteligencia-artificial-2019/ [7]. J. Pauls, (2018, Ago. #). “An Evaluation of OrCam MyEye 2.0”. [Internet]. Disponible en http://www.afb.org/afbpress/pubnew.asp?DocID=aw190806 [8]. Procer, (2019, Abr. 30). “PROCER – Tecnología Inclusiva”. [Internet]. Disponible en https://procertecnologias.com/. [9]. P. Maes, S. Nanayakkara, R. Shilkrot, J. Huber, (2015, Abr. 18). “FingerReader: a wearable device to explore text reading on the go”. [Internet]. Disponible en https://www.media.mit.edu/publications/fingerreader-a-wearable-device-to-explore-text-reading-on-the-go/ [10].Organización mundial de la salud, " Clasificación Estadística Internacional de Enfermedades y Problemas Relacionados con la Salud," CIE-10, vol.3, no. 10, p. 757, #, 2003, [En línea]. Disponible en http://iris.paho.org/xmlui/handle/123456789/6284 [11]. F. Izaurieta, C. Saavedra. (2000, #). "Redes Neuronales Artificiales" Universidad de concepción, Concepción, Gran Concepción, Chile. [En línea]. Disponible en http://www.uta.cl/revistas/charlas/volumen16/Indice/Ch-csaavedra.pdf [12]. P. Shrivastava, (2017, Sep. 13). “Challenges in Deep Learning”. [Internet]. Disponible en https://hackernoon.com/challenges-in-deep-learning-57bbf6e73bb [13]. MathWorks, (#, #. #). “Redes Neuronales Convolucionales”. [Internet]. Disponible en https://la.mathworks.com/solutions/deep-learning/convolutional-neural-network.html. [14]. S. Mori, N. Hirobumi, Y. Hiromitsu, Optical character recognition, vol.1, ed.1, New York: John Wiley & Sons, Inc., 1999. [15]. O. Brown, (2019, Nov. 12). “Raspberry Pi Blog”. [Internet]. Disponible en https://www.raspberrypi.org/blog/ [16]. R. Lambie, (2019, Nov. 7). “Raspberry Pi Blog”. [Internet]. Disponible en https://www.raspberrypi.org/blog/ [17]. Juicebox Zero Store (2018). [Internet]. Disponible en https://juiceboxzero.com/ [18]. Arducam 15 Pin 1.0mm Pitch to 22 (2019). [Internet]. Disponible en https://www.amazon.com/s?k=Arducam+15+Pin+1.0mm+Pitch+to+22&ref=nb_sb_noss. [19]. Google Cloud, (2019, Abr. 26). “Detecta texto (OCR)”. [Internet]. Disponible en https://cloud.google.com/vision/docs/ocr [20]. Reconocedores ópticos de caracteres (2015). [Internet]. Disponible en http://grupo.us.es/gtocoma/pid/pid10/OCR.htm [21]. Y. Fujii, K. Driesen, J. Baccash, A. Hurst, and A. C. Popat, “Sequenceto-label script identification for multilingual OCR,” in Proceedings of the 14th International Conference on Document Analysis and Recognition. IEEE, Nov. 2017. [22]. Y. Fujii, D. Genzel, A. C. Popat, and R. Teunen, “Label transition and selection pruning and automatic decoding parameter optimization for time-synchronous viterbi decoding,” in Proceedings of the 13th International Conference on Document Analysis and Recognition, 2015. [23]. S. Tsang, (2018, Sep. 10). “Inception-v3 — 1st Runner Up (Image Classification) in ILSVRC 2015,” [Internet]. Disponible en https://medium.com/@sh.tsang/review-inception-v3-1st-runner-up-image-classification-in-ilsvrc-2015-17915421f77c [24]. M. Edward, (2019, Jun. 12). “Secret of Google Web-Based OCR Service,” [Internet]. Disponible en https://towardsdatascience.com/secret-of-google-web-based-ocr-service-fe30eecedd01 [25]. The Understood Team, (2019, Sep. 12). “Text-to-Speech Technology: What It Is and How It Works,” [Internet]. Disponible en https://www.understood.org/en/school-learning/assistive-technology/assistive-technologies-basics/text-to-speech-technology-what-it-is-and-how-it-works. [26]. Google Cloud, (2019, Sep. 9). “Detecta texto (OCR)”. [Internet]. Disponible en https://cloud.google.com/vision/docs/ocr [27]. Text Recognition API Overview (2019). [Internet]. Disponible en https://developers.google.com/vision/android/text-overview [28]. See and Understand Text using OCR with Mobile Vision Text API for Android (2019). [Internet]. Disponible en https://codelabs.developers.google.com/codelabs/mobile-vision-ocr/#0 [29]. SparseArray (2019). [Internet]. Disponible en https://developer.android.com/reference/android/util/SparseArray. [30]. Using the Google API Client Library for Java on Android | API Client Library for Java (2019). [Internet]. Disponible en https://developers.google.com/api-client-library/java/google-api-java-client/android. [31]. Cloud Text-to-Speech API Client Library for Java | API Client Library for Java». Google Developers (2019). [Internet]. Disponible en https://developers.google.com/api-client-library/java/apis/texttospeech/v1. [32]. J. Balaban, (2019, May. 10). “How WaveNet Works,” [Internet]. Disponible en https://towardsdatascience.com/how-wavenet-works-12e2420ef386 [33]. Setting up a Raspberry Pi as a Wireless Access Point (2019). [Internet]. Disponible en https://www.raspberrypi.org/documentation/configuration/wireless/access-point.md
Repositorio Institucional UAO
[1]. M. Sabourin, A. Mitiche, Optical character recognition by a neural network, vol.5, num 5, 843-852.[En línea]. Disponible en https://doi.org/10.1016/S0893-6080(05)80144-3 [2]. #. #, “Colombia tiene 1,14 millones de personas con problemas visuales,” El país, [En línea]. Disponible en https://www.elpais.com.co/colombia/tiene-1-14-millones-de-personas-con-problemas-visuales.html [3]. N. Zuluaga, L. Arrazola, V. González, J. Monsalvo, “Las dificultades para las personas con discapacidad visual en las escuelas públicas,” El Espectador, [En línea]. Disponible en https://www.elespectador.com/noticias/nacional/atlantico/las-dificultades-para-las-personas-con-discapacidad-visual-en-las-escuelas-publicas-articulo-791509. [4]. Nación, “La deuda del país con su población en condición de discapacidad,” El Tiempo, [En línea]. Disponible en https://www.eltiempo.com/colombia/otras-ciudades/poblacion-en-condicion-de-discapacidad-y-sus-necesidades-en-colombia-90880 [5]. #. #, (2014, Ago. 30). “OMS | 10 datos sobre la ceguera y la discapacidad visual”. [Internet]. Disponible en http://www.who.int/features/factfiles/blindness/es/ [6]. #. #, (2018, Ene. 11). “19 Tecnologías de Inteligencia Artificial que dominarán el 2018”. [Internet]. Disponible en https://blog.adext.com/tecnologias-inteligencia-artificial-2019/ [7]. J. Pauls, (2018, Ago. #). “An Evaluation of OrCam MyEye 2.0”. [Internet]. Disponible en http://www.afb.org/afbpress/pubnew.asp?DocID=aw190806 [8]. Procer, (2019, Abr. 30). “PROCER – Tecnología Inclusiva”. [Internet]. Disponible en https://procertecnologias.com/. [9]. P. Maes, S. Nanayakkara, R. Shilkrot, J. Huber, (2015, Abr. 18). “FingerReader: a wearable device to explore text reading on the go”. [Internet]. Disponible en https://www.media.mit.edu/publications/fingerreader-a-wearable-device-to-explore-text-reading-on-the-go/ [10].Organización mundial de la salud, " Clasificación Estadística Internacional de Enfermedades y Problemas Relacionados con la Salud," CIE-10, vol.3, no. 10, p. 757, #, 2003, [En línea]. Disponible en http://iris.paho.org/xmlui/handle/123456789/6284 [11]. F. Izaurieta, C. Saavedra. (2000, #). "Redes Neuronales Artificiales" Universidad de concepción, Concepción, Gran Concepción, Chile. [En línea]. Disponible en http://www.uta.cl/revistas/charlas/volumen16/Indice/Ch-csaavedra.pdf [12]. P. Shrivastava, (2017, Sep. 13). “Challenges in Deep Learning”. [Internet]. Disponible en https://hackernoon.com/challenges-in-deep-learning-57bbf6e73bb [13]. MathWorks, (#, #. #). “Redes Neuronales Convolucionales”. [Internet]. Disponible en https://la.mathworks.com/solutions/deep-learning/convolutional-neural-network.html. [14]. S. Mori, N. Hirobumi, Y. Hiromitsu, Optical character recognition, vol.1, ed.1, New York: John Wiley & Sons, Inc., 1999. [15]. O. Brown, (2019, Nov. 12). “Raspberry Pi Blog”. [Internet]. Disponible en https://www.raspberrypi.org/blog/ [16]. R. Lambie, (2019, Nov. 7). “Raspberry Pi Blog”. [Internet]. Disponible en https://www.raspberrypi.org/blog/ [17]. Juicebox Zero Store (2018). [Internet]. Disponible en https://juiceboxzero.com/ [18]. Arducam 15 Pin 1.0mm Pitch to 22 (2019). [Internet]. Disponible en https://www.amazon.com/s?k=Arducam+15+Pin+1.0mm+Pitch+to+22&ref=nb_sb_noss. [19]. Google Cloud, (2019, Abr. 26). “Detecta texto (OCR)”. [Internet]. Disponible en https://cloud.google.com/vision/docs/ocr [20]. Reconocedores ópticos de caracteres (2015). [Internet]. Disponible en http://grupo.us.es/gtocoma/pid/pid10/OCR.htm [21]. Y. Fujii, K. Driesen, J. Baccash, A. Hurst, and A. C. Popat, “Sequenceto-label script identification for multilingual OCR,” in Proceedings of the 14th International Conference on Document Analysis and Recognition. IEEE, Nov. 2017. [22]. Y. Fujii, D. Genzel, A. C. Popat, and R. Teunen, “Label transition and selection pruning and automatic decoding parameter optimization for time-synchronous viterbi decoding,” in Proceedings of the 13th International Conference on Document Analysis and Recognition, 2015. [23]. S. Tsang, (2018, Sep. 10). “Inception-v3 — 1st Runner Up (Image Classification) in ILSVRC 2015,” [Internet]. Disponible en https://medium.com/@sh.tsang/review-inception-v3-1st-runner-up-image-classification-in-ilsvrc-2015-17915421f77c [24]. M. Edward, (2019, Jun. 12). “Secret of Google Web-Based OCR Service,” [Internet]. Disponible en https://towardsdatascience.com/secret-of-google-web-based-ocr-service-fe30eecedd01 [25]. The Understood Team, (2019, Sep. 12). “Text-to-Speech Technology: What It Is and How It Works,” [Internet]. Disponible en https://www.understood.org/en/school-learning/assistive-technology/assistive-technologies-basics/text-to-speech-technology-what-it-is-and-how-it-works. [26]. Google Cloud, (2019, Sep. 9). “Detecta texto (OCR)”. [Internet]. Disponible en https://cloud.google.com/vision/docs/ocr [27]. Text Recognition API Overview (2019). [Internet]. Disponible en https://developers.google.com/vision/android/text-overview [28]. See and Understand Text using OCR with Mobile Vision Text API for Android (2019). [Internet]. Disponible en https://codelabs.developers.google.com/codelabs/mobile-vision-ocr/#0 [29]. SparseArray (2019). [Internet]. Disponible en https://developer.android.com/reference/android/util/SparseArray. [30]. Using the Google API Client Library for Java on Android | API Client Library for Java (2019). [Internet]. Disponible en https://developers.google.com/api-client-library/java/google-api-java-client/android. [31]. Cloud Text-to-Speech API Client Library for Java | API Client Library for Java». Google Developers (2019). [Internet]. Disponible en https://developers.google.com/api-client-library/java/apis/texttospeech/v1. [32]. J. Balaban, (2019, May. 10). “How WaveNet Works,” [Internet]. Disponible en https://towardsdatascience.com/how-wavenet-works-12e2420ef386 [33]. Setting up a Raspberry Pi as a Wireless Access Point (2019). [Internet]. Disponible en https://www.raspberrypi.org/documentation/configuration/wireless/access-point.md
Este documento presenta el diseño y desarrollo de un dispositivo de lectura de textos, para personas en situación de discapacidad visual parcial o total, basado en redes neuronales profundas. Se realizó haciendo uso de la técnica de reconocimient
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=od________25::4f49084b2050c597868ee3bebab73305
Publikováno v:
Universidad Autónoma de Occidente
Repositorio Institucional UAO
G.-Z. Yang, J. Bellingham, P. E. Dupont, P. Fischer, . L. Floridi, R. Full, N. Jacobstein, V. Kumar, M. McNutt, . R. Merrifield, B. J. Nelson, B. Scassellati, M. Taddeo, R. Taylor, . M. Veloso, . Z. L. Wang y R. Wood, «The grand challenges of Science Robotics,» Science Robotics, vol. 3, nº 14, 2018. M. Iosa, G. Morone, A. Cherubini y S. Paolucci, «The Three Laws of Neurorobotics: A Review on What Neurorehabilitation Robots Should Do for Patients and Clinicians,» Journal of Medical and Biological Engineering, vol. 36, nº 1, pp. 1-11, 2016. Ignell, Nils Brynedal; Rasmusson, Niclas ; Matsson, Johan, «An overview of legged and wheeled robotic locomotion,» 2012. [En linea]. Disponible en: https://www.semanticscholar.org/paper/An-overview-of-legged-and-wheeledrobotic-Ignell-Rasmusson/dab7d6bd7e1372f2668633fec49b2b41120610e5. «Kinematic primitives for walking and trotting gaits of a quadruped robot with compliant legs,» Frontiers in Computational Neuroscience, vol. 8, nº 27, 2014. C. M. A. Pinto, D. Rocha, C. P. Santos y V. Matos, «A New CPG Model for the Generation of Modular Trajectories for Hexapod Robots,» AIP Conference Proceedings, vol. 1389, nº 1, 2011. A. Crespi y A. J. Ijspeert, «AmphiBot II : An Amphibious Snake Robot that Crawls and Swims using a Central Pattern Generator,» Proceedings of the 9th International Conference on Climbing and Walking Robots, pp. 19-27, 2006. A. J. Ijspeert, «Central pattern generators for locomotion control in animals and robots: A review,» Neural Networks, vol. 21, nº 4, pp. 642-653, 2008. J. Hurtado López, D. F. Ramírez Moreno y T. J. Sejnowski, «Decision-making neural circuits mediating social behaviors,» Journal of Computational Neuroscience, vol. 43, nº 2, pp. 127-142, 2017. Trossen Robotics, «PhantomX AX Metal Hexapod Mark III Kit,» [en linea]. Disponible en: https://www.trossenrobotics.com/phantomx-ax-hexapod.aspx. Case Western Reserve University, «Biologically Inspired Robotics,» [en linea]. Disponible en: http://biorobots.case.edu/projects/whegs/. C. M. A. Pinto, D. Rocha y C. Santos, «Hexapod Robots : New CPG Model for Generation of Trajectories,» Journal of Numerical Analysis, Industrial and Applied Mathematics, vol. 7, nº 1-2, pp. 15-26, 2012. R. Campos, V. Matos y C. Santos, «Hexapod locomotion: A nonlinear dynamical systems approach,» IECON 2010-36th Annual Conference on IEEE Industrial Electronics Society, pp. 1546-1551, 2010. T. Stone, B. Webb, A. Adden, N. B. Weddig, A. Honkanen, R. Templin, W.Wcislo, L. Scimeca, E. Warrant y S. Heinze, «An Anatomically Constrained Model for Path Integration in the Bee Brain,» Current Biology, vol. 27, nº 20, pp. 3069-3085, 2017. Biorobotics Laboratory, «Biorobotics Laboratory,» [en liena]. Disponible en: http://biorobotics.ri.cmu.edu/robots/ModularHexapod.php. G. Sartoretti, S. Shaw, K. Lam, N. Fan, M. J. Travers y H. Choset, «Central Pattern Generator With Inertial Feedback for Stable Locomotion and Climbing in Unstructured Terrain,» IEEE International Conference on Robotics and Automation (ICRA), pp. 1-5, 2018. «From cineradiography to biorobots: an approach for designing robots to emulate and study animal locomotion,» Journal of the Royal Society, vol. 13, nº 119, 2016. K. Weinmeister, P. Eckert, H. Witte y A. J. Ijspeert, «Cheetah-cub-S: Steering of a Quadruped Robot using Trunk Motion,» 2015 IEEE International Symposium on Safety, Security, and Rescue Robotics, 2015. S. W. Heim, M. Ajallooeian, P. Eckert, M. Vespignani y A. J. Ijspeert, «On designing an active tail for legged robots: simplifying control via decoupling of control objectives,» Industrial Robot: An International Journal, vol. 43, nº 3, pp. 338-346, 2016. EPFL, «Biorobotics Laboratory Biorob,» [Internet]. Disponible en: https://biorob.epfl.ch/research/research-quadruped/quadrupedactive/cheetah-cub-2/. [Último acceso: 5 2018]. T. P. Trappenberg, Fundamentals of Computational Neuroscience, Oxford: Oxford University Press, 2010. Dhp1080, Artist, Neuron. [Art]. 2007. A. Destexhe y T. J. Sejnowski, «The Wilson–Cowan model, 36 years later,» Biological Cybernetics, vol. 101, nº 1, pp. 1-2, 2009. H. Lee, D.-W. Kim, R. Remedios, T. E. Anthony, A. Chang, L. Madisen, H. Zeng y D. J. Anderson, «Scalable Control of Mounting and Attack by ESR1+ Neurons in,» Nature, vol. 509, pp. 627-632, 2014. K. Pfeiffer y U. Homberg, «Organization and Functional Roles of the Central Complex in the Insect Brain,» Annual Review of Entomology, vol. 59, pp. 165-184, 2014. A. S. Etienne y K. J. Jeffery, «Path integration in mammals,» Hippocampus, vol. 14, nº 2, 2004. H. R. Wilson, Spikes, Decisions and Actions, Oxford: Oxford University Press, 1999. F. L. Moro, A. Tuleu, A. Sprowitz y M. Vespignani, «Horse-like walking, troting, and galloping derived from kinematic Motion Primitives (kMPs) and their application to walk/trot transitions in a compliant quadruped robot,» Biological Cybernetics, vol. 107, pp. 309-320, 2013. A. J. Ijspeert, «Central Pattern Generator for Locomotion Control in Animals and Robots: A Review,» Neural Networks, vol. 21, nº 4, pp. 642-653, 2008. E. Marder y D. Bucher, «Central pattern generators and the control of rhythmic movements,» Current Biology, vol. 11, nº 23, pp. R986-R996, 2001. L. Itti y C. Koch, «A saliency-based search mechanism for overt and covert shifts of visual attention,» Vision Research, vol. 40, nº 10-12, pp. 1489-1506, 2000. D. F. Ramirez Moreno, O. Schwartz y J. F. Ramírez Villegas, «A saliencybased bottom-up visual attention model for dynamic scenes analysis,» Biological Cybernetics, vol. 107, nº 2, pp. 141-160, 2013. F. Tedeschi y G. Carbone, «Design Issues for Hexapod Walking Robots,» Robotics, vol. 3, pp. 181-206, 2014. H. He y X. Chen, «A Model-Based Approach to Calculating and Calibrating the Odometry for Quadruped Robots,» RoboCup 2007: RoboCup 2007: Robot Soccer World Cup XI, vol. 5001, pp. 337-344, 2008. D. Y. Forero, P. A. Mora, J. L. Loaiza y R. D. Hernández, «Análisis para la simulación de modelos animales tipo hexápodo,» Vector, vol. 6, pp. 54-62, 2015. J. J. Craig, Robótica, Tercera ed., Naucalpan de Juárez: Pearson Educación, 2006. T. Robotics, «Trossen Robotics,» [En línea]. Available: https://www.trossenrobotics.com/phantomx-ax-hexapod.aspx.
Repositorio Institucional UAO
G.-Z. Yang, J. Bellingham, P. E. Dupont, P. Fischer, . L. Floridi, R. Full, N. Jacobstein, V. Kumar, M. McNutt, . R. Merrifield, B. J. Nelson, B. Scassellati, M. Taddeo, R. Taylor, . M. Veloso, . Z. L. Wang y R. Wood, «The grand challenges of Science Robotics,» Science Robotics, vol. 3, nº 14, 2018. M. Iosa, G. Morone, A. Cherubini y S. Paolucci, «The Three Laws of Neurorobotics: A Review on What Neurorehabilitation Robots Should Do for Patients and Clinicians,» Journal of Medical and Biological Engineering, vol. 36, nº 1, pp. 1-11, 2016. Ignell, Nils Brynedal; Rasmusson, Niclas ; Matsson, Johan, «An overview of legged and wheeled robotic locomotion,» 2012. [En linea]. Disponible en: https://www.semanticscholar.org/paper/An-overview-of-legged-and-wheeledrobotic-Ignell-Rasmusson/dab7d6bd7e1372f2668633fec49b2b41120610e5. «Kinematic primitives for walking and trotting gaits of a quadruped robot with compliant legs,» Frontiers in Computational Neuroscience, vol. 8, nº 27, 2014. C. M. A. Pinto, D. Rocha, C. P. Santos y V. Matos, «A New CPG Model for the Generation of Modular Trajectories for Hexapod Robots,» AIP Conference Proceedings, vol. 1389, nº 1, 2011. A. Crespi y A. J. Ijspeert, «AmphiBot II : An Amphibious Snake Robot that Crawls and Swims using a Central Pattern Generator,» Proceedings of the 9th International Conference on Climbing and Walking Robots, pp. 19-27, 2006. A. J. Ijspeert, «Central pattern generators for locomotion control in animals and robots: A review,» Neural Networks, vol. 21, nº 4, pp. 642-653, 2008. J. Hurtado López, D. F. Ramírez Moreno y T. J. Sejnowski, «Decision-making neural circuits mediating social behaviors,» Journal of Computational Neuroscience, vol. 43, nº 2, pp. 127-142, 2017. Trossen Robotics, «PhantomX AX Metal Hexapod Mark III Kit,» [en linea]. Disponible en: https://www.trossenrobotics.com/phantomx-ax-hexapod.aspx. Case Western Reserve University, «Biologically Inspired Robotics,» [en linea]. Disponible en: http://biorobots.case.edu/projects/whegs/. C. M. A. Pinto, D. Rocha y C. Santos, «Hexapod Robots : New CPG Model for Generation of Trajectories,» Journal of Numerical Analysis, Industrial and Applied Mathematics, vol. 7, nº 1-2, pp. 15-26, 2012. R. Campos, V. Matos y C. Santos, «Hexapod locomotion: A nonlinear dynamical systems approach,» IECON 2010-36th Annual Conference on IEEE Industrial Electronics Society, pp. 1546-1551, 2010. T. Stone, B. Webb, A. Adden, N. B. Weddig, A. Honkanen, R. Templin, W.Wcislo, L. Scimeca, E. Warrant y S. Heinze, «An Anatomically Constrained Model for Path Integration in the Bee Brain,» Current Biology, vol. 27, nº 20, pp. 3069-3085, 2017. Biorobotics Laboratory, «Biorobotics Laboratory,» [en liena]. Disponible en: http://biorobotics.ri.cmu.edu/robots/ModularHexapod.php. G. Sartoretti, S. Shaw, K. Lam, N. Fan, M. J. Travers y H. Choset, «Central Pattern Generator With Inertial Feedback for Stable Locomotion and Climbing in Unstructured Terrain,» IEEE International Conference on Robotics and Automation (ICRA), pp. 1-5, 2018. «From cineradiography to biorobots: an approach for designing robots to emulate and study animal locomotion,» Journal of the Royal Society, vol. 13, nº 119, 2016. K. Weinmeister, P. Eckert, H. Witte y A. J. Ijspeert, «Cheetah-cub-S: Steering of a Quadruped Robot using Trunk Motion,» 2015 IEEE International Symposium on Safety, Security, and Rescue Robotics, 2015. S. W. Heim, M. Ajallooeian, P. Eckert, M. Vespignani y A. J. Ijspeert, «On designing an active tail for legged robots: simplifying control via decoupling of control objectives,» Industrial Robot: An International Journal, vol. 43, nº 3, pp. 338-346, 2016. EPFL, «Biorobotics Laboratory Biorob,» [Internet]. Disponible en: https://biorob.epfl.ch/research/research-quadruped/quadrupedactive/cheetah-cub-2/. [Último acceso: 5 2018]. T. P. Trappenberg, Fundamentals of Computational Neuroscience, Oxford: Oxford University Press, 2010. Dhp1080, Artist, Neuron. [Art]. 2007. A. Destexhe y T. J. Sejnowski, «The Wilson–Cowan model, 36 years later,» Biological Cybernetics, vol. 101, nº 1, pp. 1-2, 2009. H. Lee, D.-W. Kim, R. Remedios, T. E. Anthony, A. Chang, L. Madisen, H. Zeng y D. J. Anderson, «Scalable Control of Mounting and Attack by ESR1+ Neurons in,» Nature, vol. 509, pp. 627-632, 2014. K. Pfeiffer y U. Homberg, «Organization and Functional Roles of the Central Complex in the Insect Brain,» Annual Review of Entomology, vol. 59, pp. 165-184, 2014. A. S. Etienne y K. J. Jeffery, «Path integration in mammals,» Hippocampus, vol. 14, nº 2, 2004. H. R. Wilson, Spikes, Decisions and Actions, Oxford: Oxford University Press, 1999. F. L. Moro, A. Tuleu, A. Sprowitz y M. Vespignani, «Horse-like walking, troting, and galloping derived from kinematic Motion Primitives (kMPs) and their application to walk/trot transitions in a compliant quadruped robot,» Biological Cybernetics, vol. 107, pp. 309-320, 2013. A. J. Ijspeert, «Central Pattern Generator for Locomotion Control in Animals and Robots: A Review,» Neural Networks, vol. 21, nº 4, pp. 642-653, 2008. E. Marder y D. Bucher, «Central pattern generators and the control of rhythmic movements,» Current Biology, vol. 11, nº 23, pp. R986-R996, 2001. L. Itti y C. Koch, «A saliency-based search mechanism for overt and covert shifts of visual attention,» Vision Research, vol. 40, nº 10-12, pp. 1489-1506, 2000. D. F. Ramirez Moreno, O. Schwartz y J. F. Ramírez Villegas, «A saliencybased bottom-up visual attention model for dynamic scenes analysis,» Biological Cybernetics, vol. 107, nº 2, pp. 141-160, 2013. F. Tedeschi y G. Carbone, «Design Issues for Hexapod Walking Robots,» Robotics, vol. 3, pp. 181-206, 2014. H. He y X. Chen, «A Model-Based Approach to Calculating and Calibrating the Odometry for Quadruped Robots,» RoboCup 2007: RoboCup 2007: Robot Soccer World Cup XI, vol. 5001, pp. 337-344, 2008. D. Y. Forero, P. A. Mora, J. L. Loaiza y R. D. Hernández, «Análisis para la simulación de modelos animales tipo hexápodo,» Vector, vol. 6, pp. 54-62, 2015. J. J. Craig, Robótica, Tercera ed., Naucalpan de Juárez: Pearson Educación, 2006. T. Robotics, «Trossen Robotics,» [En línea]. Available: https://www.trossenrobotics.com/phantomx-ax-hexapod.aspx.
Se desarrolló un hexápodo virtual con marcha biológicamente inspirada controlado por redes neuronales basadas en la neurobiología. Se propusieron modelos basados en la neurociencia computacional para la integración de una trayectoria aleatoria y
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=od________25::947b568b7ff9e1f036d2c8ce5c5db274
https://hdl.handle.net/10614/10997
https://hdl.handle.net/10614/10997