Mostrar el registro sencillo del ítem

dc.contributor.advisorSarmiento Vela, Luis Carlos
dc.contributor.authorRodríguez Osorio, Stephanie
dc.date.accessioned2025-05-19T21:41:36Z
dc.date.available2025-05-19T21:41:36Z
dc.date.issued2014
dc.identifier.urihttps://hdl.handle.net/20.500.14329/1173
dc.descriptionDigital
dc.description.abstractEn este documento plantea y aborda el problema que dio origen a este proyecto. Como parte de la metodología del proyecto se incluye un marco teórico en el que se mencionan los robots faciales desarrollados por universidades, grupos de investigación, laboratorios privados y empresas; se abarca un conjunto de conceptos importantes para el diseño de robots faciales, como lo son, la anatomía del rostro humano, antropometría y las emociones que dan cabida a las expresiones faciales.
dc.description.tableofcontentsContenido Titulo 16 Introducción 16 1 planteamiento del problema 17 1.1 descripción del problema 17 1.2 formulación del problema 18 2 justificación 19 3 objetivos 20 3.1 objetivo general 20 3.2 objetivos específicos 20 4 marco teórico 21 4.1 marco referencial 21 4.1.1 Nacional 21 4.1.1.1 Robot facial. 21 4.1.1.2 Animatrónico Mime tace 22 4.1.2 Internacional 22 4.1.2.1 lcat 22 4.1.2.2 Probo 23 4.1.2.3 Flobi 24 4.1.2.4 Nexi. 25 4.1.2.5 Actroid 25 4.1.2.6 Geminoid 26 4.1.2.7 Robokind 27 4.1.2.8 Kaspar 28 4.1.2.9 Roman 29 4.1.2.10 Cabeza robótica - Universidad de ciencias de Tokio 29 4.1.2.11 Cabeza robótica que lee y canta - Universidad nacional de Taiwán de ciencia tecnología 30 4.2 marco conceptual 31 4.2.1 Trastornos del Espectro Autista (TEA) 31 4.2.2 Robot 32 4.2.2.1 Robots sociales 32 4.2.2.2 Robot facial social. 33 4.2.3 Antropomorfismo 33 4.2.3.1 Uncanny valley 34 4.2.4 EXPRESIONES FACIALES 36 4.2.5 EMOCIONES 37 4.2.6 T.I.S.A 39 4.2.6.1 Tristeza 39 4.2.6.2 Ira 40 4.2.6.3 Sorpresa 41 4.2.6.4 Alegría 42 4.2.7 Anatomía de la Cara 43 4.2.7.1 Cráneo 43 4.2.7.2 Músculos Faciales 44 4.2.7.3 Músculos de la Masticación 47 4.2.8 Antropometría de la cara 48 4.2.8.1 Las Cejas 49 4.2.8.2 Los Ojos 49 4.2.8.3 Los Labios 49 4.2.9 Sistema de Codificación de Acción Facial 50 4.2.9.1 Unidades de Acción 50 5 diseño conceptual 52 5.1 planeación del prototipo 52 5.1.1 dimensiones de cabeza y rostro 54 5.1.2 movimientos faciales 56 5.1.2.1 movimiento de las cejas 57 5.1.2.2 movimientos oculares 60 5.1.2.3 movimientos labiales 60 5.2 diseño del prototipo 62 5.2.1 alternativas de solución mecanismos 62 5.3 proceso de planeación 78 5.3.1 matrices de selección 78 6 diseño mecánico 83 6.1 cinemática 83 6.1.1 Módulo Cejas 85 6.1.2 Modulo Ojos 89 6.1.3 Módulo Boca 99 6.2 DINÁMICA TEÓRICA 106 6.2.1 Módulo Cejas 109 6.2.2 Módulo Ojos 114 6.2.3 Módulo Boca 130 6.3 MODELADO CAD 134 6.3.1 Módulo Cejas 135 6.3.2 Módulo Ojos 135 6.3.3 Modulo Boca 137 6.4 SIMULACIÓN DINAMICA. 139 6.4.1 Módulo Cejas 140 6.4.2 Módulo Ojos 145 6.4.3 Modulo Boca 152 6.5 análisis de esfuerzos 153 7 diseño electrónico 159 7.1 tarjeta de control 160 7.2 tarjeta de alimentación 161 7.2.1 Regulador de voltaje 161 7.2.2 Alimentación 163 7.3 fuente de alimentación 164 7.4 esquemas de conexión 165 8 procesamiento y comunicación 167 8.1 procesamiento de imagen 167 7 8.1.1 Captura de imagen 167 8.1.2 Preprocesamiento 169 8.1.3 Extracción de características 174 8.1.4 Reconocimiento de patrones 176 8.2 comunicación 179 9 construcción 182 9.1 mecanismos - músculos 183 9.1.1 Módulo bucal 183 9.1.2 Módulo ocular 185 9.1.3 Módulo cejas 188 9.2 MASCARA FACIAL - PIEL 189 9.2.1 Molde 189 9.2.2 Mascara Facial 189 9.3 CRÁNEO 192 9.3.1 Anterior 192 9.3.2 Posterior 193 9.4 OTROS 193 9.4.1 Orejas 194 9.4.2 Dentadura 194 9.4.3 Cabello 195 9.4.4 Torso 195 10 ' evaluación del prototipo 196 10.1 red neuronal 196 10.2 prototipo 197 11 conclusiones y recomendaciones 199 11.1 conclusiones 11.2 recomendaciones 199 Bibliografia
dc.format.extent206 Páginasspa
dc.format.mimetypeapplication/pdfspa
dc.language.isospaspa
dc.publisherEscuela Tecnológica Instituto Técnico Centralspa
dc.rights.urihttps://creativecommons.org/licenses/by-nc-sa/4.0/spa
dc.titleDesarrollo de un robot que imite las expresiones faciales mediante un algoritmo de visión artificialspa
dc.typeTrabajo de grado - Pregradospa
dc.rights.licenseAtribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0)spa
dc.rights.accessrightsinfo:eu-repo/semantics/closedAccessspa
dc.type.coarhttp://purl.org/coar/resource_type/c_7a1fspa
dc.type.driverinfo:eu-repo/semantics/bachelorThesisspa
dc.type.versioninfo:eu-repo/semantics/acceptedVersionspa
dc.description.degreelevelPregradospa
dc.description.degreenameIngeniero Mecatrónicospa
dc.publisher.facultyIngeniería Mecatrónicaspa
dc.publisher.placeBogotá D.C.spa
dc.publisher.programIngeniería Mecatrónicaspa
dc.relation.referencesAUT, U. (1994). Quality Function Deployment.spa
dc.relation.referencesAdafruit. (s.f.). Adafruit Industries. Recuperado el 2013, de Adafruit Industries: http://www.adafruit.comspa
dc.relation.referencesArlington, U. (s.f.). University of Texas Arlington. Recuperado el 2012, de University of Texas Arlington: http://www.uta.edu/news/releases/2012/07/robot-autism-popa.phpspa
dc.relation.referencesBarrantes, O. J., Bonilla, J. A., & Melo, L. F. (2008). Robot facial. Universidad Pedagogica Nacional.spa
dc.relation.referencesBarrientos, A., Peñin, L. F., Balaguer, C., & Aracil, R. (1997). Fundamentos de Robotica.pdf.spa
dc.relation.referencesBerns, K., & Hirth, J. (2006). Control of facial expressions of the humanoid robot head ROMAN. 2006 IEEEIRSJ lnternational Conference on lntelligent Robots and Systems, 3119-3124. doi:10.1109/IROS.2006.282331spa
dc.relation.referencesBittermann, A., Kolja, K., & Buss, M. (2007). On the Evaluation of Emotion Expressing Robots, (April), 10-14.spa
dc.relation.referencesBreazeal, C. (2002). Designing Sociable Robots.spa
dc.relation.referencesBreazeal, C. (2011 ). Social robots for health applications. Conference Proceedings: ... Annual lnternational Conference of the IEEE Engineering in Medicine and Biology Society. IEEE Engineering in Medicine and Biology Society. Conference, 2011, 5368-71. doi:10.1109/IEMBS.2011.6091328spa
dc.relation.referencesBreazeal, C., & Scassellati, B. (1999). How to build robots that make friends and influence people. Proceedíngs 1999 IEEEIRSJ lnternatíonal Conference on lntelligent Robots and Systems. Human and Envíronment Friendly Robots with High Intelligence and Emotional Quotients (Cat. No.99CH36289), 2, 858-863. doi:10.1109/IROS.1999.812787spa
dc.relation.referencesBrisben, A. J., Safos, C. S., Lockerd, A. D., & Lathan, C. E. (2005). The CosmoBot TM System : Evaluating its Usability in Therapy Sessions with Children Diagnosed with Cerebral Palsy ".spa
dc.relation.referencesBurgué, J. (n.d.). La Cara, sus Proporciones Estéticas, 1-11spa
dc.relation.referencesBrussel, V. U. (s.f.). Probo a huggable robotic friend. Recuperado el Agosto de 2012, de Probo a huggable robotic friend: http://probo.vub.ac.be./spa
dc.relation.referencesCrow, K. A. (n.d.). Quality Function Deployment, 1--9.spa
dc.relation.referencesDave. (26 de Agosto de 2011). DAVID HERROLD. Recuperado el Julio de 2013, de DAVID HERROLD: http://www.davidherrold.com/2011/08/26/theuncanny- valley-and-corporate-social-medialspa
dc.relation.referencesDavid Matsumoto, D. K. (2008). Facial Expression of emotion. In Handbook of emotions (pp. 211-234).spa
dc.relation.referencesDemant, C., Streicher-Abel, B., & Garnica, C. (2013). Industrial lmage Processíng. Berlin, Heidelberg: Springer Berlin Heidelberg. doi:10.1007/978-3-642-33905-spa
dc.relation.referencesDuffy, B. R. (2003). Anthropomorphism and the social robot. Robotics and Autonomous Systems, 42(3-4), 177-190. doi:10.1016/S0921-8890(02)00374- 3spa
dc.relation.referencesDuquette, A., Mercier, H., & Michaud, F. (2004). lnvestigating the Use of a Mobile Robotic Toy asan lmitation Agent for Chíldren with Autismspa
dc.relation.referencesEkman, P. (2003). Emotions Revealed. Times Books.spa
dc.relation.referencesErhebung anthropometrischer Mae zur Aktualisierung der DIN 33 402 - Teil 2. (2004)spa
dc.relation.referencesEspitia, H., & Augusto, C. (n.d.). Animatrónica: Diseño mecatrónico para el entretenimiento. MIME FACE, un ejemplo de aplicación.spa
dc.relation.referencesEATON, K. (s.f.). Fast Company. Recuperado el Septiembre de 2012, de Fast Company: http://www.fastcompany.com/1737610/robokind-robots-theyrejust- usspa
dc.relation.referencesFeil-seifer, D., & Matari, M. J. (2005). Defining Socially Assistive Robotics, 465- 468.spa
dc.relation.referencesFlores, V. C. (2005). ARTNATOMYIARTNATOMIA. Recuperado el Septiembre de 2013, de ARTNATOMY/ARTNATOMIA: www.artnatomia.netspa
dc.relation.referencesGonzalez, R. C., & Woods, R. E. (2009). Digital lmage Processing using MATLAB (Second.).spa
dc.relation.referencesGoris, K., Saldien, J., Vanderborght, B., & Lefeber, D. (2010). Probo, an lntelligent Huggable Robot for HRI Studies with Children, (February).spa
dc.relation.referencesGoris, K., Saldien, J., Vanderborght, B., & Lefeber, D. (2011). How to achieve the huggable behavior of the social robot Probo? A reflection on the actuators. Mechatronics, 21(3), 490-500. doi: 10.1016/j.mechatronics.2011.01.001spa
dc.relation.referencesHertfordshire, U. o. (s.f.). Kaspar. Recuperado el Septiembre de 2012, de Kaspar: http://www.kaspar.herts.ac.uk/kaspar/kaspar-the-robot.htmspa
dc.relation.referencesHagan, M. T., & Beale, M. H. (n.d.). Neural Network Design (2nd ed.).spa
dc.relation.referencesHashimoto, T., Hiramatsu, S., & Kobayashi, H. (2006). Development of Face Robot for Emotional Communication between Human and Robot. 2006 lntemational Conference on Mechatronics and Automation, 25-30. doi: 10.1109/ICMA.2006.257429spa
dc.relation.referencesHuang, H., & Yu, H. (201 O). A companion robot with facial expressions and face recognition. 2010 5th IEEE Conference on Industrial Electronics and Applications, 216-221. doi:10.1109/ICIEA.2010.5516780spa
dc.relation.referencesHUMAN ENGINEERING DESIGN DATA DIGEST. (2000). Department of Defense Human Factors Engineering Technical Advisory GroupWashington, DCspa
dc.relation.referencesiCat. (s.f.). Recuperado el octubre de 2012, de iCat: http://www.hitechprojects. com/icat/platform.phpspa
dc.relation.referencesISHIGURO, H. (s.f.). Geminoidspa
dc.relation.referenceslzard, C. E. (1992). Basic emotions, relations among emotions, and emotion - cognition relations. Psychological Review, 561 -565.spa
dc.relation.referencesKurihara, K., Sugiyama, D., Matsumoto, S., Nishiuchi, N., & Masuda, K. (2009). Facial emotion and gesture reproduction method for substitute robot of remeteperson. Computers & Industrial Engineering, 56(2), 631-647. doi:10.1016/j.cie.2008.10.004spa
dc.relation.referencesKokoro. (s.f.). Kokoro. Recuperado el Septiembre de 2012, de Kokoro: http://www.kokoro-dreams.co.jp/english/rt_rent/actroid.htmlspa
dc.relation.referencesLin, C.-Y., Cheng, L.-C., Tseng, C.-K., Gu, H.-Y., Chung. K.-L., Fahn, C.-S., ... Chang, C.-C. (2011). A face robot for autonomous simplified musical notation reading and singing. Robotics and Autonomous Systems, 59(11 ), 943-953. doi:10.1016/j.rob0t.2011.07.001spa
dc.relation.referencesLoza, D., Marcos, S., Zalama, E., & Jaime, G. (2013). Application of the FACS in the Design and Construction of a Mechatronic Head with Realistic Appearance, 7(1), 31-38.spa
dc.relation.referencesLevenson, R. (1994). Human Emotion. A functional view. The nature of emotions: Fundamental questions, 123-126spa
dc.relation.referencesMandler, G. (1997). The Psychology of Facial Expression. (J. A. Russell & J. M. Fernández-Dols, Eds.). Cambridge: Cambridge University Press. doi:10.1017/CBO9780511659911spa
dc.relation.referencesMasahiro, B., Translated, M., & Kageki, N. (2012). The Uncanny Valley. IEEE ROBOTICS &AUTOMATIONMAGAZINE, (June), 98-100.spa
dc.relation.referencesMatworks. (2014). Matlab. Obtenido de http://www.mathworks.comspa
dc.relation.referencesMINGS, J. (s.f.). Solidsmack. Recuperado el Septiembre de 2012, de Solidsmack: http://solidsmack.com/3d-cad-technology/mds-robot-solidworks-designxitome- mit-robotics/spa
dc.relation.referencesOh, K., Jung, C., & Choi, M. (2010). Eye motion generation in a mobile service robot "SILBOT II." 2010 IEEE Workshop on Advanced Robotics and lts Social lmpacts, 59-64. doi: 10.1109/ARS0.2010.5679626spa
dc.relation.referencesOkamura, A., Mataric, M., & Christensen, H. (2010). Medica! and Health-Care Reboticas Achievements and Opportunities, (September).spa
dc.relation.referencesOthman, M. F., & Basri, M. A. M. (2011). Probabilistic Neural Network for Brain Tumor Classification. 2011 Second lntemational Conference on lntelligent Systems, Modelling and Simulation, 136-138. doi:10.1109/ISMS.2011.32spa
dc.relation.referencesPaul Ekman, W. V. (1978). Facial Action Coding Sistem. Consulting Psychologists Pressspa
dc.relation.referencesPlastic pals. (s.f.). Recuperado el 2012, http://www.plasticpals.com/?p=27182spa
dc.relation.referencesPerveen, N., Gupta, S., & Verma, K. (2012). Facial expression recognition using facial characteristic points and Gini index. 2012 Students Conference on Engineering and Systems, 1-6. doi:10.1109/SCES.2012.6199086spa
dc.relation.referencesPioggia, G., lgliozzi, R., Ferro, M., Ahluwalia, A., Muratori, F., & De Rossi, D. (2005). An android for enhancing social skills and emotion recognition in people with autism. IEEE Transactions on Neural Systems and Rehabilitation Engineering: A Pub/ication of the IEEE Engineering in Medicine and Bio/ogy Society, 13(4), 507-15. doi:10.1109/TNSRE.2005.856076spa
dc.relation.referencesPioggial, G., Sical, M. L., Ferrol, M., Jgliozzi, R., Muratori, F., & Ahluwalial, A. (2007). Human-Robot lnteraction in Autism : FACE , an Android-based Social Therapy. In 16th IEEE International Conference on Robot & Human lnteractive Communication (pp. 605-612).spa
dc.relation.referencesRichard I. Drake, W. V. (2005). Gray - Anatomia para estudiantes. Elsevierspa
dc.relation.referencesRodríguez, F. A. (s.f.). Obtenido de http://www.monografias.com/trabajos6/larobollarobo.shtmlspa
dc.relation.referencesSeeley, Stephens, & Tate. (2004). 10. Muscular System: Gross Anatomy. In Anatomy and Physiology (pp. 314 - 362). © The McGraw-Hill Companies, 2004.spa
dc.relation.referencesSHIH, F. Y. (2010a). Feature extraction. In IMAGE PROCESSING ANO PATTERN RECOGNITION Fundamentals and Techniques (pp. 269-305).spa
dc.relation.referencesSHIH, F. Y. (2010b). Image enhancement. In IMAGE PROCESSING ANO PATTERNRECOGNITION (pp. 40-62).spa
dc.relation.referencesSHIH, F. Y. (2010c). lmage segmentation. In IMAGE PROCESS/NG ANO PATTERNRECOGNITIONFundamentals and Techniques (pp. 119-178).spa
dc.relation.referencesSmith-Lovin, L. (2008). Handbook of Emotions. (Vol. 24, p. 298). doi:10.2307/2076468spa
dc.relation.referencesServoDatabase. (s.f.). ServoDatabase. Recuperado el 2013, de ServoDatabase: http://www.servodatabase.com/spa
dc.relation.referencesTian, Y.-I., Kanade, T., & Cohn, J. F. (2001). Recognizing action units for facial expression analysis. IEEE Transactions on Pattern Analysis and Machine lntelligence, 23(2), 97--115. doi:10.1109/34.908962spa
dc.relation.referencesViola, P., & Jones, M. (2001). Rapid Object Detection using a Boosted Cascade of Simple Features.spa
dc.relation.referencesWikipedia. (s.f.). Obtenido de Wikipedia: http://es.wikipedia.org/wiki/Reconocimiento_de_expresiones_facialesspa
dc.relation.referencesYee, J. N. (Oct. 2005). "Digital chameleons: Automatic as- similation of nonverbal gestures in immersive virtual environments. Psycho/ogical Science vol. 16, no. 10, 814-819.spa
dc.subject.armarcMecatrónica
dc.subject.armarcMovimientos mecánicos
dc.subject.armarcRobótica
dc.subject.armarcVisión artificial
dc.type.coarversionhttp://purl.org/coar/version/c_ab4af688f83e57aaspa
dc.type.contentTextspa
dc.type.redcolhttp://purl.org/redcol/resource_type/TPspa
dc.rights.coarhttp://purl.org/coar/access_right/c_14cbspa


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

https://creativecommons.org/licenses/by-nc-sa/4.0/
Excepto si se señala otra cosa, la licencia del ítem se describe como https://creativecommons.org/licenses/by-nc-sa/4.0/