Las lenguas de signos (también conocidas como lenguajes de señas ) son lenguas que utilizan la modalidad viso-manual para transmitir significado, en lugar de palabras habladas. Las lenguas de signos se expresan a través de la articulación manual en combinación con marcadores no manuales. Las lenguas de signos son lenguas naturales de pleno derecho con su propia gramática y léxico. [1] Las lenguas de signos no son universales y, por lo general, no son mutuamente inteligibles , [2] aunque existen similitudes entre las diferentes lenguas de signos.
Los lingüistas consideran que tanto la comunicación hablada como la de señas son tipos de lenguaje natural , lo que significa que ambas surgieron a través de un proceso abstracto y prolongado de envejecimiento y evolucionaron con el tiempo sin una planificación meticulosa. [3] Esto se ve respaldado por el hecho de que existe una superposición sustancial entre los sustratos neuronales del procesamiento del lenguaje de señas y del lenguaje hablado, a pesar de las obvias diferencias en la modalidad. [4]
El lenguaje de señas no debe confundirse con el lenguaje corporal , un tipo de comunicación no verbal . Los lingüistas también distinguen los lenguajes de señas naturales de otros sistemas que son precursores de ellos o que se obtuvieron de ellos, como los códigos manuales construidos para los lenguajes hablados, el lenguaje de señas casero , el " lenguaje de señas para bebés " y los signos aprendidos por primates no humanos.
Allí donde existen comunidades de personas sordas , las lenguas de señas se han desarrollado como medios útiles de comunicación y forman el núcleo de las culturas sordas locales . Aunque las señas son utilizadas principalmente por las personas sordas y con problemas de audición , también las utilizan las personas oyentes, como las que no pueden hablar físicamente , las que tienen problemas con el lenguaje oral debido a una discapacidad o condición ( comunicación aumentativa y alternativa ) y las que tienen familiares sordos, incluidos los hijos de adultos sordos .
No se conoce con precisión el número de lenguas de signos que existen en todo el mundo. Por lo general, cada país tiene su propia lengua de signos nativa; algunos tienen más de una. La edición de 2021 de Ethnologue enumera 150 lenguas de signos, [5] mientras que el Atlas de estructuras de las lenguas de signos de SIGN-HUB enumera más de 200 y señala que hay más que aún no se han documentado ni descubierto. [6] En 2021, la lengua de signos indopaquistaní es la lengua de signos más utilizada en el mundo, y Ethnologue la clasifica como la 151.ª lengua más "hablada" del mundo. [7]
Algunas lenguas de señas han obtenido alguna forma de reconocimiento legal . [8]
Los grupos de personas sordas han utilizado lenguajes de signos a lo largo de la historia. Uno de los primeros registros escritos de un lenguaje de signos data del siglo V a. C., en el Crátilo de Platón , donde Sócrates dice: "Si no tuviéramos voz ni lengua y quisiéramos expresarnos cosas, ¿no intentaríamos hacer señas moviendo las manos, la cabeza y el resto del cuerpo, tal como lo hacen los mudos en la actualidad?" [9] La mayor parte de lo que se sabe sobre los lenguajes de signos anteriores al siglo XIX se limita a los alfabetos manuales (sistemas de deletreo manual) que se inventaron para facilitar la transferencia de palabras de un lenguaje hablado a un lenguaje de signos, en lugar de la documentación del lenguaje en sí.
El debate en torno a las lenguas de signos monásticas europeas desarrolladas en la Edad Media ha llegado a considerarlas como sistemas gestuales en lugar de verdaderas lenguas de signos. [10] Las lenguas de signos monásticas fueron la base del primer alfabeto manual conocido utilizado en escuelas para sordos, desarrollado por Pedro Ponce de León . [11]
Los primeros registros de contacto entre europeos y pueblos indígenas de la región de la Costa del Golfo en lo que hoy es Texas y el norte de México dan cuenta de un lenguaje de señas completamente formado que ya se utilizaba en el momento de la llegada de los europeos allí. [12] Estos registros incluyen los relatos de Cabeza de Vaca en 1527 y Coronado en 1541.
En 1620, Juan Pablo Bonet publicó en Madrid Reducción de las letras y arte para enseñar a hablar a los mudos. [ 13] Se considera el primer tratado moderno de fonética de la lengua de signos, y establece un método de educación oral para sordos y un alfabeto manual.
En Gran Bretaña, los alfabetos manuales también se utilizaban para diversos fines, como la comunicación secreta, [14] hablar en público o la comunicación entre personas sordas o con ellas. [15] En 1648, John Bulwer describió al "Maestro Babington", un hombre sordo competente en el uso de un alfabeto manual, "construido con las articulaciones de sus dedos", cuya esposa podía conversar con él fácilmente, incluso en la oscuridad, mediante el uso de signos táctiles . [16]
En 1680, George Dalgarno publicó Didascalocophus, o El tutor del sordomudo , [17] en el que presentó su propio método de educación para sordos, que incluía un alfabeto "artrológico", en el que las letras se indican señalando las diferentes articulaciones de los dedos y la palma de la mano izquierda. Los sistemas artrológicos habían sido utilizados por personas oyentes durante algún tiempo; [18] algunos han especulado que se pueden remontar a los primeros alfabetos manuales Ogham . [19] [20]
Las vocales de este alfabeto han sobrevivido en los alfabetos modernos utilizados en el lenguaje de signos británico , Auslan y el lenguaje de signos neozelandés . Las primeras imágenes impresas conocidas de consonantes del alfabeto moderno de dos manos aparecieron en 1698 con Digiti Lingua (del latín Lengua [o Lengua ] del Dedo ), un panfleto de un autor anónimo que no podía hablar. [21] [22] Sugirió que el alfabeto manual también podría ser utilizado por mudos, para el silencio y el secreto, o simplemente para el entretenimiento. Nueve de sus letras se pueden rastrear a alfabetos anteriores, y 17 letras del alfabeto moderno de dos manos se pueden encontrar entre los dos conjuntos de 26 formas de mano representadas.
Charles de La Fin publicó un libro en 1692 que describe un sistema alfabético en el que señalar una parte del cuerpo representaba la primera letra de la parte (por ejemplo, Brow=B), y las vocales se ubicaban en las yemas de los dedos como en los otros sistemas británicos. [23] Describió dichos códigos tanto para el inglés como para el latín.
En 1720, el alfabeto manual británico había encontrado más o menos su forma actual. [24] Los descendientes de este alfabeto han sido utilizados por comunidades sordas, al menos en educación, en las antiguas colonias británicas de India, Australia, Nueva Zelanda, Uganda y Sudáfrica, así como en las repúblicas y provincias de la antigua Yugoslavia, la Isla Gran Caimán en el Caribe, Indonesia, Noruega, Alemania y los Estados Unidos.
Durante las Guerras Polygar contra los británicos, Veeran Sundaralingam se comunicó con el hermano menor mudo de Veerapandiya Kattabomman , Oomaithurai , utilizando su propio lenguaje de señas. [ aclaración necesaria ]
El francés Charles-Michel de l'Épée publicó su alfabeto manual en el siglo XVIII, que ha sobrevivido prácticamente sin cambios en Francia y América del Norte hasta la actualidad. En 1755, el abad de l'Épée fundó la primera escuela para niños sordos en París; Laurent Clerc fue posiblemente su graduado más famoso. Clerc fue a los Estados Unidos con Thomas Hopkins Gallaudet para fundar la Escuela Americana para Sordos en Hartford, Connecticut, en 1817. [25] [26] El hijo de Gallaudet, Edward Miner Gallaudet , fundó una escuela para sordos en 1857 en Washington, DC, que en 1864 se convirtió en el Colegio Nacional de Sordomudos. Ahora llamada Universidad Gallaudet , sigue siendo la única universidad de artes liberales para personas sordas en el mundo.
El lenguaje de señas internacional , antes conocido como gesto, se utiliza principalmente en eventos internacionales para sordos, como las Olimpiadas para sordos y las reuniones de la Federación Mundial de Sordos . Si bien estudios recientes afirman que el lenguaje de señas internacional es una especie de pidgin , concluyen que es más complejo que un pidgin típico y, de hecho, se parece más a un lenguaje de señas completo. [27] [28] Si bien el término más utilizado es el de lenguaje de señas internacional, a veces se lo conoce como gesto , [29] pidgin de señas internacional [28] o gesto internacional (IG). [30] El lenguaje de señas internacional es un término utilizado por la Federación Mundial de Sordos y otras organizaciones internacionales.
Las lenguas de signos tienen una capacidad y una complejidad iguales a las de las lenguas habladas; su estudio como parte del campo de la lingüística ha demostrado que exhiben las propiedades fundamentales que existen en todas las lenguas. [31] [1] [32] Dichas propiedades fundamentales incluyen la dualidad de patrones [33] y la recursión . [34] La dualidad de patrones significa que las lenguas están compuestas de unidades más pequeñas y sin sentido que se pueden combinar en unidades más grandes con sentido (véase más adelante). El término recursión significa que las lenguas exhiben reglas gramaticales y el resultado de dicha regla puede ser la entrada de la misma regla. Por ejemplo, es posible en las lenguas de signos crear cláusulas subordinadas y una cláusula subordinada puede contener otra cláusula subordinada.
Las lenguas de signos no son mímicas ; en otras palabras, los signos son convencionales, a menudo arbitrarios y no necesariamente tienen una relación visual con su referente, de la misma manera que la mayoría de las lenguas habladas no son onomatopéyicas . Si bien la iconicidad es más sistemática y generalizada en las lenguas de signos que en las habladas, la diferencia no es categórica. [35] La modalidad visual permite que la preferencia humana por las conexiones estrechas entre forma y significado, presentes pero suprimidas en las lenguas habladas, se exprese más plenamente. [36]
Los lenguajes de signos, al igual que los lenguajes hablados, organizan unidades elementales sin sentido en unidades semánticas significativas . Este tipo de organización en el lenguaje natural a menudo se denomina dualidad de patrones . Al igual que en los lenguajes hablados, estas unidades sin sentido se representan como (combinaciones de) características , aunque a menudo también se hacen descripciones más burdas en términos de cinco "parámetros": forma de la mano , orientación , ubicación ( o lugar de articulación ), movimiento y expresión no manual . Estas unidades sin sentido en los lenguajes de signos se denominaron inicialmente cheremes , [37] de la palabra griega para mano , por analogía con los fonemas , del griego para voz , de los lenguajes hablados. Ahora a veces también se los llama fonemas cuando se describen los lenguajes de signos, ya que la función es la misma, pero se discute más comúnmente en términos de "características" [1] o "parámetros". [38] En términos más generales, tanto los lenguajes de señas como los lenguajes hablados comparten las características que los lingüistas han encontrado en todos los lenguajes humanos naturales, como la transitoriedad, la semanticidad , la arbitrariedad , la productividad y la transmisión cultural . [ aclaración necesaria ]
Las características lingüísticas comunes de muchas lenguas de signos son la aparición de construcciones clasificadoras , un alto grado de flexión mediante cambios de movimiento y una sintaxis tema-comentario . Más que las lenguas habladas, las lenguas de signos pueden transmitir significado por medios simultáneos, por ejemplo, mediante el uso del espacio , dos articuladores manuales y la cara y el cuerpo del signante. Aunque todavía hay mucha discusión sobre el tema de la iconicidad en las lenguas de signos, los clasificadores generalmente se consideran altamente icónicos, ya que estas construcciones complejas "funcionan como predicados que pueden expresar cualquiera o todos los siguientes: movimiento, posición, información descriptiva-estativa o manejo". [39] Debe notarse que el término clasificador no es utilizado por todos los que trabajan en estas construcciones. En todo el campo de la lingüística de la lengua de signos, las mismas construcciones también se conocen con otros términos como signos representativos.
En la actualidad, los lingüistas estudian las lenguas de signos como lenguas verdaderas, parte del campo de la lingüística. Sin embargo, la categoría "lenguas de signos" no se añadió a la Bibliografía lingüística hasta el volumen de 1988, [40] cuando apareció con 39 entradas.
Existe una idea errónea común [41] de que las lenguas de signos son lenguaje hablado expresado en signos , o que fueron inventadas por personas oyentes. [42] Las similitudes en el procesamiento del lenguaje en el cerebro entre las lenguas de signos y las habladas perpetuaron aún más esta idea errónea. A los profesores oyentes en escuelas para sordos, como Charles-Michel de l'Épée o Thomas Hopkins Gallaudet, a menudo se les llama incorrectamente "inventores" de la lengua de signos. En cambio, las lenguas de signos, como todos los idiomas naturales, son desarrolladas por las personas que las usan, en este caso, personas sordas, que pueden tener poco o ningún conocimiento de cualquier lengua hablada.
A medida que una lengua de signos se desarrolla, a veces toma prestados elementos de las lenguas habladas, al igual que todas las lenguas toman prestado de otras lenguas con las que están en contacto. Las lenguas de signos varían en la cantidad de elementos que toman prestados de las lenguas habladas. En muchas lenguas de signos, se puede utilizar un alfabeto manual ("dactilografía") en la comunicación por señas para tomar prestada una palabra de una lengua hablada. Esto se utiliza más comúnmente para los nombres propios de personas y lugares; también se utiliza en algunas lenguas para conceptos para los que no hay signos disponibles en ese momento, en particular si las personas involucradas son hasta cierto punto bilingües en la lengua hablada. La dactilografía a veces puede ser una fuente de nuevos signos, como los signos iniciales, en los que la forma de la mano representa la primera letra de una palabra hablada con el mismo significado.
En general, sin embargo, las lenguas de signos son independientes de las lenguas habladas y siguen sus propios caminos de desarrollo. Por ejemplo, la lengua de signos británica (BSL) y la lengua de signos estadounidense (ASL) son bastante diferentes y mutuamente ininteligibles, a pesar de que las personas oyentes del Reino Unido y los Estados Unidos comparten la misma lengua hablada. Las gramáticas de las lenguas de signos no suelen parecerse a las de las lenguas habladas que se utilizan en la misma zona geográfica; de hecho, en términos de sintaxis, la ASL comparte más con el japonés hablado que con el inglés. [43]
De manera similar, los países que utilizan una sola lengua hablada en todo el territorio pueden tener dos o más lenguas de señas, o una zona que contiene más de una lengua hablada puede utilizar solo una lengua de señas. Sudáfrica , que tiene 11 lenguas habladas oficiales y una cantidad similar de otras lenguas habladas ampliamente utilizadas, es un buen ejemplo de esto. Tiene solo una lengua de señas con dos variantes debido a su historia de tener dos importantes instituciones educativas para sordos que han prestado servicios en diferentes áreas geográficas del país.
Las lenguas de signos aprovechan las características únicas del medio visual (la vista), pero también pueden aprovechar las características táctiles ( lenguajes de signos táctiles ). El lenguaje hablado es, en general, lineal; solo se puede emitir o recibir un sonido a la vez. El lenguaje de signos, por otro lado, es visual y, por lo tanto, puede utilizar una expresión simultánea, aunque esta está limitada desde el punto de vista articulatorio y lingüístico. La percepción visual permite procesar información simultánea.
Una forma en que muchos lenguajes de señas aprovechan la naturaleza espacial del lenguaje es mediante el uso de clasificadores. Los clasificadores permiten al hablante mostrar espacialmente el tipo, el tamaño, la forma, el movimiento o la extensión de un referente.
A veces se exagera la posible simultaneidad de las lenguas de signos en comparación con las lenguas habladas. El uso de dos articuladores manuales está sujeto a restricciones motoras, lo que da lugar a un alto grado de simetría [44] o a la realización de signos con un solo articulador. Además, las lenguas de signos, al igual que las lenguas habladas, dependen de la secuencia lineal de signos para formar oraciones; el mayor uso de la simultaneidad se observa sobre todo en la morfología (estructura interna de los signos individuales).
Las lenguas de señas transmiten gran parte de su prosodia a través de elementos no manuales. Las posturas o movimientos del cuerpo, la cabeza, las cejas, los ojos, las mejillas y la boca se utilizan en diversas combinaciones para mostrar varias categorías de información, incluidas la distinción léxica , la estructura gramatical , el contenido adjetival o adverbial y las funciones del discurso .
A nivel léxico, los signos pueden especificarse léxicamente para elementos no manuales además de la articulación manual. Por ejemplo, las expresiones faciales pueden acompañar verbos de emoción, como en el signo para enojado en la lengua de signos checa . Los elementos no manuales también pueden ser léxicamente contrastivos. Por ejemplo, en ASL (lengua de signos estadounidense), los componentes faciales distinguen algunos signos de otros signos. Un ejemplo es el signo traducido como todavía no , que requiere que la lengua toque el labio inferior y que la cabeza gire de lado a lado, además de la parte manual del signo. Sin estas características, el signo se interpretaría como tarde . [45] Las muecas , que son (partes de) palabras habladas que acompañan a los signos léxicos, también pueden ser contrastivas, como en los signos manualmente idénticos para doctor y batería en la lengua de signos de los Países Bajos . [46]
Si bien el contenido de una oración con señas se produce manualmente, muchas funciones gramaticales se producen de forma no manual (es decir, con la cara y el torso). [47] Dichas funciones incluyen preguntas, negación, cláusulas relativas y topicalización. [48] El ASL y el BSL utilizan una marcación no manual similar para preguntas de sí/no, por ejemplo. Se muestran a través de cejas levantadas e inclinación de la cabeza hacia adelante. [49] [50]
Algunos elementos no manuales transmiten información adjetiva y adverbial, pero la naturaleza de estos elementos varía de un idioma a otro. Por ejemplo, en ASL una boca ligeramente abierta con la lengua relajada y visible en la comisura de la boca significa "descuidadamente", pero un elemento no manual similar en BSL significa "aburrido" o "desagradable". [50]
Las funciones del discurso, como el turno de palabra, se regulan en gran medida mediante el movimiento de la cabeza y la mirada. Dado que el destinatario de una conversación por señas debe estar mirando al hablante, este puede evitar que la otra persona tenga su turno si no lo mira, o puede indicarle que puede tener su turno si establece contacto visual. [51]
La iconicidad es la similitud o analogía entre la forma de un signo (lingüístico o de otro tipo) y su significado, en oposición a la arbitrariedad . [52] Los primeros estudios sobre la iconicidad en ASL se publicaron a fines de la década de 1970 y principios de la de 1980. Muchos de los primeros lingüistas de la lengua de señas rechazaron la noción de que la iconicidad fuera un aspecto importante de las lenguas de señas, considerando que la mayoría de la iconicidad percibida era extralingüística. [53] [31] Sin embargo, los aspectos miméticos de la lengua de señas (signos que imitan, imitan o representan) se encuentran en abundancia en una amplia variedad de lenguas de señas. Por ejemplo, cuando los niños sordos que aprenden lengua de señas intentan expresar algo pero no conocen el signo asociado, a menudo inventan un signo icónico que muestra propiedades miméticas. [54] Aunque nunca desaparece de una lengua de señas en particular, la iconicidad se debilita gradualmente a medida que las formas de las lenguas de señas se vuelven más habituales y posteriormente se gramaticalizan. A medida que una forma se vuelve más convencional, se difunde de manera metódica y fonológica al resto de la comunidad de la lengua de señas. [55] Nancy Frishberg concluyó que, aunque originalmente estaba presente en muchos signos, la iconicidad se degrada con el tiempo mediante la aplicación de procesos gramaticales naturales. [53]
En 1978, el psicólogo Roger Brown fue uno de los primeros en sugerir que las propiedades del lenguaje de signos americano le confieren una clara ventaja en términos de aprendizaje y memoria. [56] En su estudio, Brown descubrió que cuando a un grupo de seis niños oyentes se les enseñaban signos que tenían altos niveles de mapeo icónico, tenían significativamente más probabilidades de recordar los signos en una tarea de memoria posterior que otro grupo de seis niños a los que se les enseñaban signos que tenían pocas o ninguna propiedad icónica. A diferencia de Brown, los lingüistas Elissa Newport y Richard Meier descubrieron que la iconicidad "parece tener prácticamente ningún impacto en la adquisición del lenguaje de signos americano". [57]
Una tarea central para los pioneros de la lingüística de la lengua de signos fue tratar de demostrar que el ASL era un lenguaje real y no meramente una colección de gestos o "inglés en las manos". Una de las creencias predominantes en ese momento era que los "lenguajes reales" debían consistir en una relación arbitraria entre forma y significado. Por lo tanto, si el ASL consistía en signos que tenían una relación icónica entre forma y significado, no podía considerarse un lenguaje real. Como resultado, la iconicidad en su conjunto fue descuidada en gran medida en la investigación de las lenguas de signos durante mucho tiempo. Sin embargo, la iconicidad también juega un papel en muchos idiomas hablados. El japonés hablado , por ejemplo, exhibe muchas palabras que imitan los sonidos de sus referentes potenciales (ver Simbolismo sonoro japonés ). Por lo tanto, los investigadores posteriores reconocieron que los lenguajes naturales no necesitan consistir en una relación arbitraria entre forma y significado. [58] La naturaleza visual del lenguaje de señas simplemente permite un mayor grado de iconicidad en comparación con los lenguajes hablados, ya que la mayoría de los objetos del mundo real se pueden describir mediante una forma prototípica (por ejemplo, una mesa suele tener una superficie plana), pero la mayoría de los objetos del mundo real no producen sonidos prototípicos que puedan ser imitados por los lenguajes hablados (por ejemplo, las mesas no producen sonidos prototípicos). Sin embargo, hay que señalar que los lenguajes de señas no son completamente icónicos. Por un lado, también hay muchos signos arbitrarios en los lenguajes de señas y, por otro lado, la gramática de un lenguaje de señas pone límites al grado de iconicidad: todos los lenguajes de señas conocidos, por ejemplo, expresan conceptos léxicos mediante signos manuales. De un lenguaje verdaderamente icónico se esperaría que un concepto como la sonrisa se expresara imitando una sonrisa (es decir, haciendo una cara sonriente). Sin embargo, todos los lenguajes de señas conocidos no expresan el concepto de sonrisa mediante una cara sonriente, sino mediante un signo manual. [59]
La perspectiva de la lingüística cognitiva rechaza una definición más tradicional de la iconicidad como una relación entre la forma lingüística y un referente concreto del mundo real. Más bien, se trata de un conjunto de correspondencias seleccionadas entre la forma y el significado de un signo. [36] En esta perspectiva, la iconicidad se basa en la representación mental del usuario de una lengua (" interpretación " en gramática cognitiva ). Se define como un aspecto completamente gramatical y central de una lengua de signos en lugar de un fenómeno periférico. [60]
La perspectiva de la lingüística cognitiva permite que algunos signos sean totalmente icónicos o parcialmente icónicos dada la cantidad de correspondencias entre los posibles parámetros de forma y significado. [61] De esta manera, el signo de la lengua de señas israelí (ISL) para preguntar tiene partes de su forma que son icónicas ("el movimiento que se aleja de la boca" significa "algo que sale de la boca") y partes que son arbitrarias (la forma de la mano y la orientación). [62]
Muchos signos tienen correspondencias metafóricas, así como icónicas o metonímicas. Para estos signos hay correspondencias triples entre una forma, una fuente concreta y un significado abstracto. El signo LEARN del ASL tiene esta correspondencia triple. El significado abstracto es "aprender". La fuente concreta es poner objetos en la cabeza desde los libros. La forma es una mano que agarra y se mueve desde una palma abierta hasta la frente. La correspondencia icónica es entre la forma y la fuente concreta. La correspondencia metafórica es entre la fuente concreta y el significado abstracto. Debido a que la fuente concreta está conectada a dos correspondencias, los lingüistas se refieren a los signos metafóricos como "doblemente mapeados". [36] [61] [62]
Los lenguajes de señas se pueden clasificar según su origen.
En las comunidades que no utilizan el lenguaje de señas, el lenguaje de señas doméstico no es una lengua completa, sino más bien un pidgin . El lenguaje de señas doméstico es amorfo y generalmente idiosincrásico de una familia en particular, donde un niño sordo no tiene contacto con otros niños sordos y no recibe educación en lenguaje de señas. Por lo general, estos sistemas no se transmiten de una generación a la siguiente. Cuando se transmiten, se esperaría que se produjera una criollización , lo que daría lugar a una lengua completa. Sin embargo, el lenguaje de señas doméstico también puede estar más cerca de ser una lengua completa en las comunidades donde la población oyente tiene un modo de lenguaje gestual; los ejemplos incluyen varias lenguas de señas aborígenes australianas y sistemas gestuales en África occidental, como el mofu-gudur en Camerún.
Una lengua de señas de aldea es una lengua indígena local que normalmente surge a lo largo de varias generaciones en una comunidad relativamente insular con una alta incidencia de sordera, y es utilizada tanto por los sordos como por una parte significativa de la comunidad oyente, que tiene familiares y amigos sordos. [63] La más famosa de ellas es probablemente la extinta lengua de señas de Martha's Vineyard de los EE. UU., pero también hay numerosas lenguas de aldea diseminadas por África, Asia y América.
Por otra parte, las lenguas de señas de las comunidades sordas surgen cuando las personas sordas se reúnen para formar sus propias comunidades. Entre ellas se encuentran las lenguas de señas escolares, como la lengua de señas nicaragüense , que se desarrollan en los cuerpos estudiantiles de las escuelas para sordos que no utilizan la lengua de señas como lengua de instrucción, así como las lenguas comunitarias, como la lengua de señas de Bamako , que surgen cuando las personas sordas generalmente sin educación se congregan en centros urbanos para trabajar. Al principio, las lenguas de señas de las comunidades sordas no son conocidas por la población oyente, en muchos casos ni siquiera por los familiares más cercanos. Sin embargo, pueden crecer, en algunos casos convirtiéndose en una lengua de instrucción y recibiendo reconocimiento oficial, como en el caso del ASL.
Ambos contrastan con los lenguajes tabú del habla , como las diversas lenguas de signos aborígenes australianas , que son desarrolladas por la comunidad oyente y solo utilizadas secundariamente por los sordos. Es dudoso que la mayoría de estos sean idiomas por derecho propio, en lugar de códigos manuales de idiomas hablados, aunque algunos como el lenguaje de signos Yolngu son independientes de cualquier idioma hablado en particular. Las personas oyentes también pueden desarrollar signos para comunicarse con usuarios de otros idiomas, como en el lenguaje de signos de las llanuras ; este era un sistema de signos de contacto o pidgin que evidentemente no fue utilizado por las personas sordas en las naciones de las llanuras, aunque presumiblemente influyó en el lenguaje de signos doméstico.
El contacto lingüístico y la criollización son comunes en el desarrollo de las lenguas de signos, lo que dificulta la clasificación clara de las familias: a menudo no está claro si la similitud léxica se debe a préstamos o a una lengua madre común, o si hubo una o varias lenguas madre, como varias lenguas de aldea que se fusionaron en una lengua de la comunidad de sordos. El contacto ocurre entre las lenguas de signos, entre las lenguas de signos y las lenguas habladas ( seña de contacto , una especie de pidgin), y entre las lenguas de signos y los sistemas gestuales utilizados por la comunidad en general. Por ejemplo, la lengua de signos adamorobe , una lengua de signos de aldea de Ghana, puede estar relacionada con la "jerga comercial gestual utilizada en los mercados de toda África occidental", en vocabulario y características areales que incluyen prosodia y fonética. [64] [65]
La única clasificación exhaustiva en este sentido que va más allá de una simple lista de idiomas data de 1991. [74] La clasificación se basa en los 69 idiomas de señas de la edición de 1988 de Ethnologue que se conocían en el momento de la conferencia de 1989 sobre idiomas de señas en Montreal y 11 idiomas más que el autor agregó después de la conferencia. [76]
En su clasificación, el autor distingue entre lenguas de signos primarias y auxiliares [79], así como entre lenguas individuales y nombres que se cree que hacen referencia a más de una lengua. [80] La clase de lenguas prototipo-A incluye todas aquellas lenguas de signos que aparentemente no pueden derivarse de ninguna otra lengua. [77] Las lenguas prototipo-R son lenguas que se modelan remotamente sobre una lengua prototipo-A (en muchos casos se cree que fue la lengua de signos francesa) mediante un proceso que Kroeber (1940) llamó " difusión de estímulo ". [78] Las familias de BSL , DGS , JSL , LSF (y posiblemente LSG ) fueron productos de la criollización y relexificación de lenguas prototipo. [81] La criollización se considera como un enriquecimiento de la morfología manifiesta en las lenguas de signos, en comparación con la reducción de la morfología manifiesta en las lenguas habladas. [82]
La tipología lingüística (que se remonta a Edward Sapir ) se basa en la estructura de las palabras y distingue clases morfológicas como las aglutinantes /concatenantes, flexivas , polisintéticas, incorporantes y aislantes.
Las lenguas de signos varían en cuanto a la tipología del orden de las palabras. Por ejemplo, la lengua de signos austríaca, la lengua de signos japonesa y la lengua de signos indopaquistaní son de tipo sujeto-objeto-verbo , mientras que el ASL es de tipo sujeto-verbo-objeto . No es improbable que exista influencia de las lenguas habladas circundantes.
Las lenguas de signos tienden a incorporar lenguajes clasificadores, en los que una forma manual clasificadora que representa el objeto se incorpora a aquellos verbos transitivos que permiten dicha modificación. En un grupo similar de verbos intransitivos (especialmente los verbos de movimiento), es el sujeto el que se incorpora. Solo en muy pocas lenguas de signos (por ejemplo, la lengua de signos japonesa) se incorporan agentes. De esta manera, dado que los sujetos de los intransitivos se tratan de manera similar a los objetos de los transitivos, se puede decir que la incorporación en las lenguas de signos sigue un patrón ergativo.
Brentari [83] [84] clasifica las lenguas de signos como un grupo determinado por el medio de comunicación (visual en lugar de auditivo) como un grupo con características monosilábicas y polimorfémicas. Esto significa que una sílaba (es decir, una palabra, un signo) puede expresar varios morfemas, por ejemplo, el sujeto y el objeto de un verbo determinan la dirección del movimiento del verbo (inflexión).
Otro aspecto de la tipología que se ha estudiado en las lenguas de señas son sus sistemas de números cardinales . [85] Se han encontrado diferencias tipológicamente significativas entre las lenguas de señas.
Los niños que están expuestos a una lengua de signos desde el nacimiento la adquirirán, de la misma manera que los niños oyentes adquieren su lengua hablada nativa. [86] En un estudio realizado en la Universidad de McGill, se descubrió que los usuarios de la lengua de signos estadounidense que adquirieron la lengua de forma nativa (desde el nacimiento) obtuvieron mejores resultados cuando se les pidió que copiaran videos de oraciones en ASL que los usuarios de ASL que adquirieron la lengua más tarde en la vida. También descubrieron que existen diferencias en la morfología gramatical de las oraciones en ASL entre los dos grupos, todo lo cual sugiere que existe un período crítico muy importante en el aprendizaje de las lenguas de signos. [87]
The acquisition of non-manual features follows an interesting pattern: When a word that always has a particular non-manual feature associated with it (such as a wh-question word) is learned, the non-manual aspects are attached to the word but do not have the flexibility associated with adult use. At a certain point, the non-manual features are dropped and the word is produced with no facial expression. After a few months, the non-manuals reappear, this time being used the way adult signers would use them.[88]
Sign languages do not have a traditional or formal written form. Many deaf people do not see a need to write their own language.[89]
Several ways to represent sign languages in written form have been developed.
So far, there is no consensus regarding the written form of sign language. Except for SignWriting, none are widely used. Maria Galea writes that SignWriting "is becoming widespread, uncontainable and untraceable. In the same way that works written in and about a well developed writing system such as the Latin script, the time has arrived where SW is so widespread, that it is impossible in the same way to list all works that have been produced using this writing system and that have been written about this writing system."[95] In 2015, the Federal University of Santa Catarina accepted a dissertation written in Brazilian Sign Language using Sutton SignWriting for a master's degree in linguistics. The dissertation "The Writing of Grammatical Non-Manual Expressions in Sentences in LIBRAS Using the SignWriting System" by João Paulo Ampessan states that "the data indicate the need for [non-manual expressions] usage in writing sign language".[96]
For a native signer, sign perception influences how the mind makes sense of their visual language experience. For example, a handshape may vary based on the other signs made before or after it, but these variations are arranged in perceptual categories during its development. The mind detects handshape contrasts but groups similar handshapes together in one category.[97][98][99] Different handshapes are stored in other categories. The mind ignores some of the similarities between different perceptual categories, at the same time preserving the visual information within each perceptual category of handshape variation.
When Deaf people constitute a relatively small proportion of the general population, Deaf communities often develop that are distinct from the surrounding hearing community.[100]These Deaf communities are very widespread in the world, associated especially with sign languages used in urban areas and throughout a nation, and the cultures they have developed are very rich.
One example of sign language variation in the Deaf community is Black ASL. This sign language was developed in the Black Deaf community as a variant during the American era of segregation and racism, where young Black Deaf students were forced to attend separate schools than their white Deaf peers.[101]
On occasion, where the prevalence of deaf people is high enough, a deaf sign language has been taken up by an entire local community, forming what is sometimes called a "village sign language"[102] or "shared signing community".[103] Typically this happens in small, tightly integrated communities with a closed gene pool. Famous examples include:
In such communities deaf people are generally well-integrated in the general community and not socially disadvantaged, so much so that it is difficult to speak of a separate "Deaf" community.[100]
Many Australian Aboriginal sign languages arose in a context of extensive speech taboos, such as during mourning and initiation rites. They are or were especially highly developed among the Warlpiri, Warumungu, Dieri, Kaytetye, Arrernte, and Warlmanpa, and are based on their respective spoken languages.
A sign language arose among tribes of American Indians in the Great Plains region of North America (see Plains Indian Sign Language) before European contact. It was used by hearing people to communicate among tribes with different spoken languages, as well as by deaf people. There are especially users today among the Crow, Cheyenne, and Arapaho.
Sign language is also used as a form of alternative or augmentative communication by people who can hear but have difficulties using their voices to speak.[104]
Increasingly, hearing schools and universities are expressing interest in incorporating sign language. In the U.S., enrollment for ASL (American Sign Language) classes as part of students' choice of second language is on the rise.[105] In New Zealand, one year after the passing of NZSL Act 2006 in parliament, a NZSL curriculum was released for schools to take NZSL as an optional subject. The curriculum and teaching materials were designed to target intermediate schools from Years 7 to 10, (NZ Herald, 2007).
Some sign languages have obtained some form of legal recognition, while others have no status at all. Sarah Batterbury has argued that sign languages should be recognized and supported not merely as an accommodation for those with disabilities, but as the communication medium of language communities.[106]
Legal requirements covering sign language accessibility in media vary from country to country. In the United Kingdom, the Broadcasting Act 1996 addressed the requirements for blind and deaf viewers,[107] but has since been replaced by the Communications Act 2003.
In order to facilitate communication between deaf and hearing people, sign language interpreters are often used. Such activities involve considerable effort on the part of the interpreter, since sign languages are distinct natural languages with their own syntax, different from any spoken language.
The interpretation flow is normally between a sign language and a spoken language that are customarily used in the same country, such as French Sign Language (LSF) and spoken French in France, Spanish Sign Language (LSE) to spoken Spanish in Spain, British Sign Language (BSL) and spoken English in the U.K., and American Sign Language (ASL) and spoken English in the U.S. and most of anglophone Canada (since BSL and ASL are distinct sign languages both used in English-speaking countries), etc. Sign language interpreters who can translate between signed and spoken languages that are not normally paired (such as between LSE and English), are also available, albeit less frequently.
Sign language is sometimes provided for television programmes that include speech. The signer usually appears in the bottom corner of the screen, with the programme being broadcast full size or slightly shrunk away from that corner. Typically for press conferences such as those given by the Mayor of New York City, the signer appears to stage left or right of the public official to allow both the speaker and signer to be in frame at the same time. Live sign interpretation of important televised events is increasingly common but still an informal industry [108] In traditional analogue broadcasting, some programmes are repeated outside main viewing hours with a signer present.[109] Some emerging television technologies allow the viewer to turn the signer on and off in a similar manner to subtitles and closed captioning.[109]
One of the first demonstrations of the ability for telecommunications to help sign language users communicate with each other occurred when AT&T's videophone (trademarked as the Picturephone) was introduced to the public at the 1964 New York World's Fair– two deaf users were able to freely communicate with each other between the fair and another city.[110] However, video communication did not become widely available until sufficient bandwidth for the high volume of video data became available in the early 2000s.
The Internet now allows deaf people to talk via a video link, either with a special-purpose videophone designed for use with sign language or with "off-the-shelf" video services designed for use with broadband and an ordinary computer webcam. The special videophones that are designed for sign language communication may provide better quality than 'off-the-shelf' services and may use data compression methods specifically designed to maximize the intelligibility of sign languages. Some advanced equipment enables a person to remotely control the other person's video camera, in order to zoom in and out or to point the camera better to understand the signing.
Interpreters may be physically present with both parties to the conversation but, since the technological advancements in the early 2000s, provision of interpreters in remote locations has become available. In video remote interpreting (VRI), the two clients (a sign language user and a hearing person who wish to communicate with each other) are in one location, and the interpreter is in another. The interpreter communicates with the sign language user via a video telecommunications link, and with the hearing person by an audio link. VRI can be used for situations in which no on-site interpreters are available.
However, VRI cannot be used for situations in which all parties are speaking via telephone alone. With video relay service (VRS), the sign language user, the interpreter, and the hearing person are in three separate locations, thus allowing the two clients to talk to each other on the phone through the interpreter.
With recent developments in artificial intelligence in computer science, some recent deep learning based machine translation algorithms have been developed which automatically translate short videos containing sign language directly to written language.[111]
Sign language has been incorporated into film; for example, all movies shown in Brazilian movie theaters must have a Brazilian Sign Language video track available to play alongside the film via a second screen.[112][113]
The Sign Union flag was designed by Arnaud Balard. After studying flags around the world and vexillology principles for two years, Balard revealed the design of the flag, featuring the stylized outline of a hand. The three colors which make up the flag design are representative of Deafhood and humanity (dark blue), sign language (turquoise), and enlightenment and hope (yellow). Balard intended the flag to be an international symbol which welcomes deaf people.[114]
As with any spoken language, sign languages are also vulnerable to becoming endangered.[115] For example, a sign language used by a small community may be endangered and even abandoned as users shift to a sign language used by a larger community, as has happened with Hawai'i Sign Language, which is almost extinct except for a few elderly signers.[116][117] Even nationally recognised sign languages can be endangered; for example, New Zealand Sign Language is losing users.[118] Methods are being developed to assess the language vitality of sign languages.[119]
There are a number of communication systems that are similar in some respects to sign languages, while not having all the characteristics of a full sign language, particularly its grammatical structure. Many of these are either precursors to natural sign languages or are derived from them.
When Deaf and Hearing people interact, signing systems may be developed that use signs drawn from a natural sign language but used according to the grammar of the spoken language. In particular, when people devise one-for-one sign-for-word correspondences between spoken words (or even morphemes) and signs that represent them, the system that results is a manual code for a spoken language, rather than a natural sign language. Such systems may be invented in an attempt to help teach Deaf children the spoken language, and generally are not used outside an educational context.
Some hearing parents teach signs to young hearing children. Since the muscles in babies' hands grow and develop quicker than their mouths, signs are seen as a beneficial option for better communication.[124] Babies can usually produce signs before they can speak.[citation needed] This reduces the confusion between parents when trying to figure out what their child wants. When the child begins to speak, signing is usually abandoned, so the child does not progress to acquiring the grammar of the sign language.[125]
This is in contrast to hearing children who grow up with Deaf parents, who generally acquire the full sign language natively, the same as Deaf children of Deaf parents.
Informal, rudimentary sign systems are sometimes developed within a single family. For instance, when hearing parents with no sign language skills have a deaf child, the child may develop a system of signs naturally, unless repressed by the parents. The term for these mini-languages is home sign (sometimes "kitchen sign").[126]
Home sign arises due to the absence of any other way to communicate. Within the span of a single lifetime and without the support or feedback of a community, the child naturally invents signs to help meet his or her communication needs, and may even develop a few grammatical rules for combining short sequences of signs. Still, this kind of system is inadequate for the intellectual development of a child and it comes nowhere near meeting the standards linguists use to describe a complete language. No type of home sign is recognized as a full language.[127]
There have been several notable examples of scientists teaching signs to non-human primates in order to communicate with humans,[128] such as chimpanzees,[129][130][131][132][133][134][135] gorillas[136] and orangutans.[137] However, linguists generally point out that this does not constitute knowledge of a human language as a complete system, rather than simply signs/words.[138][139][140][141][142] Notable examples of animals who have learned signs include:
One theory of the evolution of human language states that it developed first as a gestural system, which later shifted to speech.[143][144][145][146][65][147] An important question for this gestural theory is what caused the shift to vocalization.[148][149][150]
The language is considered to be endangered. 9,600 deaf people in Hawaii now use American Sign Language with a few local signs for place-names and cultural items.
{{citation}}
: CS1 maint: location missing publisher (link)Note: the articles for specific sign languages (e.g. ASL or BSL) may contain further external links, e.g. for learning those languages.