stringtranslate.com

Bruno Zamborlin


Bruno Zamborlin (nacido en 1983 en Vicenza ) es un investigador de IA , emprendedor y artista radicado en Londres , que trabaja en el campo de la interacción hombre-computadora . [1] [2] [3] Su trabajo se centra en convertir objetos físicos en superficies interactivas sensibles al tacto utilizando sensores de vibración e inteligencia artificial . En 2013 fundó Mogees Limited [4], una start-up para transformar objetos cotidianos en instrumentos musicales y juegos utilizando un sensor de vibración y un teléfono móvil. Con HyperSurfaces, [5] convierte superficies físicas de cualquier material, forma y figura en superficies interactivas habilitadas para datos utilizando un sensor de vibración y un chipset del tamaño de una moneda . Como artista, ha creado instalaciones de arte en todo el mundo, y su trabajo más reciente comprende una serie única de "muebles sonoros" que se exhibieron en el Pabellón Italiano de la Bienal de Venecia 2023. [6] Actuó regularmente con el dúo de música electrónica Plaid ( Warp Records ), con sede en el Reino Unido. También es investigador visitante honorario en Goldsmiths, Universidad de Londres . [7]

Vida temprana y educación

De 2008 a 2011, Zamborlin trabajó en el IRCAM (Instituto de Investigación y Coordinación Acústica Musical) – Centro Pompidou como miembro del equipo Sound Music Movement Interaction. [8] Bajo la supervisión de Frederic Bevilacqua, comenzó a experimentar con el uso de inteligencia artificial y movimientos humanos, [9] y contribuyó a la creación de Gesture Follower, [10] [11] un software utilizado para analizar los movimientos corporales de intérpretes y bailarines a través de sensores de movimiento con el fin de controlar los medios sonoros y visuales en tiempo real , ralentizando o acelerando su reproducción en función de la velocidad con la que se realizan los gestos. [12] [13]

Reside en Londres desde 2011, donde desarrolló un doctorado conjunto entre Goldsmiths, University of London e IRCAM - Centre Pompidou / Pierre y Marie Curie University Paris en IA, [14] centrándose en el concepto de aprendizaje automático interactivo [15] aplicado a instrumentos musicales digitales y artes escénicas. [16]

Carrera

Zamborlin fundó Mogees Limited en 2013 en Londres , con IRCAM entre los primeros socios. [17] Mogees transforma objetos físicos en instrumentos musicales y juegos usando un sensor de vibración y una serie de aplicaciones para teléfonos inteligentes y computadoras de escritorio . [18] [19] [20] [21] [22] [23] Después de una campaña en Kickstarter en 2014, [24] Mogees fue utilizado tanto por usuarios comunes [25] como por artistas como Rodrigo y Gabriela , [26] Jean-Michel Jarre [27] y Plaid . [28] [29] Los algoritmos implementados en estas aplicaciones emplean una versión especial de síntesis de sonido de modelado físico , donde la vibración producida por los usuarios al interactuar con el objeto físico se utiliza como excitador para un resonador digital que se ejecuta en la aplicación. El resultado es un sonido híbrido, mitad acústico y mitad digital, que es una función tanto del software como de las propiedades acústicas del objeto físico que los usuarios deciden reproducir. [30]

En 2017, Zamborlin fundó HyperSurfaces junto con el artista computacional Parag K Mital. [31] para fusionar "los mundos físico y digital". La tecnología HyperSurfaces convierte cualquier superficie hecha de cualquier material, forma y tamaño en objetos interactivos habilitados para datos, empleando un sensor de vibración y algoritmos de IA patentados que se ejecutan en un conjunto de chips del tamaño de una moneda . [32] Las vibraciones generadas por las interacciones de las personas en la superficie se convierten en una señal eléctrica mediante un sensor piezoeléctrico y se analizan en tiempo real mediante algoritmos de IA que se ejecutan en el conjunto de chips. Cada vez que la IA reconoce en la señal de vibración uno de los eventos que han sido predefinidos por el usuario de antemano, se genera un mensaje de notificación correspondiente en tiempo real y se envía a alguna aplicación. [33] La tecnología se puede aplicar a cualquier cosa, desde aplicaciones de interacción hombre-computadora sin botones para automóviles y hogares inteligentes hasta la Internet de las cosas . [34] [35] [36] [37] Debido a que los algoritmos de IA que emplean HyperSurfaces se ejecutan localmente en un chipset, sin necesidad de acceder a servicios basados ​​en la nube, se los considera parte del campo de la computación de borde . Además, debido a que la IA puede ser entrenada de antemano para reconocer los eventos que interesan a sus usuarios, los algoritmos de HyperSurfaces pertenecen al campo del aprendizaje automático supervisado . [38] [39]

Premios seleccionados

Patentes y publicaciones académicas

Referencias

  1. ^ Vdovin, Marsha (23 de junio de 2014). "Una entrevista con Bruno Zamborlin". Cycling74 . San Francisco . Consultado el 17 de enero de 2019 .
  2. ^ Tardif, Antoine (29 de diciembre de 2020). «Bruno Zamborlin, director ejecutivo y científico jefe de Hypersurfaces: serie de entrevistas». unite.ai . Consultado el 18 de marzo de 2019 .
  3. ^ "Bruno Zamborlin, PhD Feature". Coruzant Technologies . 1 de julio de 2020 . Consultado el 23 de julio de 2019 .
  4. ^ "Inicio". mogees.co.uk .
  5. ^ "Inicio". hypersurfaces.com .
  6. ^ ""Lo que sabemos sobre el Pabellón Italiano en la Bienal de Venecia 2023"". domusweb .
  7. ^ Sitio web del Departamento de Informática de la Universidad Goldsmiths
  8. ^ Miembros pasados ​​y actuales del equipo de Interacción del Movimiento de Música Sonora en IRCAM
  9. ^ Kimura, Mari; Rasamimanana, Nicolas; Bevilacqua, Frédéric; Zamborlin, Bruno; Schnell, Bruno; Flety, Emmanuel (2012). "Extracción de la expresión humana para la composición interactiva con el violín aumentado". Conferencia internacional sobre nuevas interfaces para la expresión musical (NIME) . Consultado el 17 de enero de 2021 .
  10. ^ Bevilacqua, Frédéric; Zamborlin, Bruno; Sypniewski, Anthony; Schnell, Norbert; Guédy, Fabrice; Rasamimanana, Nicolas (2010). "Seguimiento y reconocimiento continuo de gestos en tiempo real". El gesto en la comunicación incorporada y la interacción entre humanos y computadoras . Apuntes de clase en informática. Vol. 5934. págs. 73–84. doi :10.1007/978-3-642-12553-9_7. ISBN 978-3-642-12552-2. S2CID  16251822 . Consultado el 17 de enero de 2021 .
  11. ^ "Seguidor de gestos". 4 de marzo de 2014.
  12. ^ Bevilacqua, Frédéric; Schnell, Norbert; Rasamimanana, Nicolas; Zamborlin, Bruno; Guedy, Fabrice (2011). "Análisis de gestos en línea y control del procesamiento de audio". Robots musicales y sistemas multimodales interactivos . Springer Tracts in Advanced Robotics. Vol. 74. págs. 127–142. doi :10.1007/978-3-642-22291-7_8. ISBN 978-3-642-22290-0. Recuperado el 17 de enero de 2021 .
  13. ^ Seminario de Bruno Zamborlin sobre interacción gestual, Grupo de Tecnología Musical, Universidad Pompeu Fabra, 5 de octubre de 2011
  14. ^ "EDB - Bienvenue". Archivado desde el original el 22 de enero de 2021. Consultado el 20 de enero de 2021 .
  15. ^ Aprendizaje automático interactivo: evidencia experimental de la participación humana en el bucle algorítmico. Holzinger, A., Plass, M., Kickmeier-Rust, M. et al. Aprendizaje automático interactivo: evidencia experimental de la participación humana en el bucle algorítmico. Appl Intell 49, 2401–2414 (2019)
  16. ^ Zamborlin, Bruno; Bevilacqua, Frédéric; Gillies, Marco; D'Inverno, Mark (15 de enero de 2014). "Diseño de interacción gestual fluida: aplicaciones del reconocimiento continuo para el diseño de interfaces gestuales modernas". ACM Transactions on Interactive Intelligent Systems . 3 (4): 22:1–30. doi :10.1145/2543921. S2CID  7887245 . Consultado el 17 de enero de 2021 .
  17. ^ "Aplicaciones industriales".
  18. ^ McPherson, Andrew; Morreale, Fabio; Harrison, Jacob (7 de febrero de 2019). "Instrumentos musicales para principiantes: comparación de los enfoques NIME, HCI y crowdfunding". Nuevas direcciones en la música y la interacción entre humanos y computadoras . Springer Series on Cultural Computing. págs. 179–212. doi :10.1007/978-3-319-92069-6_12. ISBN 978-3-319-92068-9. S2CID  151068133 . Consultado el 20 de mayo de 2021 .
  19. ^ Nagle, Paul (marzo de 2016). "Mogees: Resynthesis App & Sensor For iOS & Mac". Sonido sobre sonido . Consultado el 2 de octubre de 2020 .
  20. ^ Solon, Olivia (1 de abril de 2012). "El proyecto Mogees convierte cualquier superficie en una interfaz musical gestual". Wired.com . Consultado el 2 de octubre de 2020 .
  21. ^ O'Hear, Steve (25 de mayo de 2017). "Mogees obtiene financiación inicial para incorporar tecnología de reconocimiento de gestos basada en audio en nuevos dispositivos". TechCrunch . Consultado el 2 de octubre de 2020 .
  22. ^ Madelaine, Nicolas (22 de agosto de 2016). "Mogees, ou la réalité virtudlle sonore pour tous". Los Ecos . Consultado el 2 de octubre de 2020 .
  23. ^ Rociola, Arcangelo (30 de septiembre de 2014). «Mogees: la startup italiana que está haciendo que todo el mundo toque música (desde los árboles hasta los DJ's)». StartupItalia . Consultado el 10 de octubre de 2020 .
  24. ^ "Éxito de Kickstarter para un dispositivo que convierte objetos cotidianos en instrumentos". Fact Magazine . 5 de marzo de 2014 . Consultado el 15 de octubre de 2020 .
  25. ^ Michaut, Cécile (12 de junio de 2014). "Les chercheurs de l'Ircam ouvrent les portes de leurs laboratoires". El Mundo . Consultado el 15 de junio de 2021 .
  26. ^ Sitio web de Rodrigo y Gabriela
  27. ^ Bruno Zamborlin y Mogees en el sitio web de Jean Michel Jarre
  28. ^ Plaid y Bruno Zamborlin, vídeo musical de ELEX
  29. ^ Turk, Victoria (19 de febrero de 2014). «Este dispositivo convierte cualquier objeto en música electrónica». Vice.com . Consultado el 15 de enero de 2021 .
  30. ^ Hattwick, Ian; Beebe, Preston; Hale, Zachary; Marcelo, Wanderley (2014). «Objetos insonoros: extracción de características de audio para el control de la síntesis de sonido». Actas de la Conferencia Internacional sobre Nuevas Interfaces para la Expresión Musical : 597–600. doi :10.5281/zenodo.1178790 . Consultado el 20 de mayo de 2021 .
  31. ^ Sitio web de Parag K Mital
  32. ^ O'Hear, Steve (20 de noviembre de 2018). "HyperSurfaces convierte cualquier superficie en una interfaz de usuario utilizando sensores de vibración e IA". Techcrunch . Consultado el 17 de enero de 2021 .
  33. ^ GB pendiente WO/2019/086862, Bruno Zamborlin; Conor Barry y Alessandro Saccoia et al., "Una interfaz de usuario para vehículos", publicada el 9 de mayo de 2019, asignada a Mogees Limited 
  34. ^ GB pendiente WO/2019/086863, Bruno Zamborlin; Conor Barry y Alessandro Saccoia et al., "Disparador de eventos de juego", publicado el 9 de mayo de 2019, asignado a Mogees Limited 
  35. ^ Ridden, Paul (20 de noviembre de 2018). "HyperSurfaces utiliza IA para hacer que la interacción entre objetos sea más natural". NewsAtlas . Consultado el 17 de enero de 2021 .
  36. ^ "HyperSurfaces: la fusión perfecta de los mundos físico y de datos". TechCompanyNews . 26 de noviembre de 2018 . Consultado el 17 de enero de 2021 .
  37. ^ "Video destacado: hipersuperficies basadas en datos". Inside bigdata . 18 de octubre de 2018 . Consultado el 22 de enero de 2021 .
  38. ^ Estados Unidos pendiente US10817798B2, Bruno Zamborlin & Carmine Emanuele Cella, "Método para reconocer un gesto y dispositivo correspondiente", publicado el 27 de abril de 2016, asignado a Mogees Limited 
  39. ^ Yuanming, Shi; Kai, Yang; Tao, Jiang; Zhang, Jun; Letaief, Khaled B (2020). "Communication-efficient Edge AI: Algorithms and systems". IEEE Communications Surveys & Tutorials . 22 (4): 2167–2191. arXiv : 2002.09668 . doi :10.1109/COMST.2020.3007787. S2CID  211258847 . Consultado el 20 de mayo de 2021 .
  40. ^ "Journée Science et Musique 2012".
  41. ^ "Mogees- Ganador del NEMODE Dragon's Den 2012- ¿Dónde están ahora? « www.nemode.ac.uk".

Enlaces externos