stringtranslate.com

Charla: Instituto de Investigación en Inteligencia Artificial

NPOV para Pakaran

He eliminado muchas cosas del artículo que parecían ser básicamente meras palabras y autopromoción. Esto es lo que decía cuando lo encontré:

"El Singularity Institute for Artificial Intelligence es una organización sin fines de lucro que busca crear una inteligencia artificial benévola capaz de mejorar su propio diseño. Para ello, han desarrollado las ideas de la IA semilla y la IA amigable y actualmente están coordinando esfuerzos para implementarlas físicamente. El Singularity Institute fue creado con la creencia de que la creación de mentes más inteligentes y más amables que los humanos representa una tremenda oportunidad para lograr el bien. Se eligió la inteligencia artificial porque el Singularity Institute considera que la modificación neurológica de los seres humanos es un camino más difícil y peligroso hacia la inteligencia transhumana".
"El Singularity Institute observa que los sistemas de IA funcionarían con hardware que realiza cálculos a miles de millones o billones de veces la velocidad característica de las neuronas humanas, lo que daría como resultado una aceleración correspondiente de la velocidad de pensamiento. Las IA transhumanas serían capaces de desarrollar nanotecnología y usarla para lograr objetivos del mundo real, incluida la mejora adicional de su propia inteligencia y la mejora consensuada de la inteligencia de los seres humanos. Si tuviera suficiente inteligencia y benevolencia, una IA transhumana sería capaz de resolver muchos problemas humanos ancestrales en escalas de tiempo muy breves".

Tal como está, no es un mal artículo, pero no es realmente adecuado para una enciclopedia. Presenta algunas cosas como hechos que son claramente opiniones. Hace declaraciones polémicas, como que originó el concepto de "Seed AI" (algo sorprendente para una organización tan nueva; leí ideas similares en el libro de Von Neumann a mediados de los años setenta, y eso había sido escrito casi treinta años antes). La afirmación de estar "coordinando esfuerzos para implementar físicamente" Seed AI y Friendly AI parece basarse en la recaudación de fondos y en escribir una gran cantidad de artículos sobre un lenguaje de programación definido de manera extremadamente vaga que parece carecer incluso de una implementación experimental.

Wikipedia no es para investigaciones originales, no es para que nosotros expongamos nuestras ideas favoritas (por muy válidas que sean). Es para catalogar el conocimiento humano desde un punto de vista neutral. El artículo tal como estaba, en mi opinión, no era tanto un artículo enciclopédico como un panegírico promocional. -- Minority Report 03:07, 23 nov 2004 (UTC)

Vale, admitiendo que tengo prejuicios, soy donante financiero de la SIAI. Es cierto que ha habido retrasos en el inicio del desarrollo real, en gran medida porque es necesario tener listos todos los fundamentos teóricos de Friendly AI primero.
Dicho esto, afirmar que el SIAI es una "religión" en lugar de un grupo (con lo que puedes estar o no de acuerdo) es intrínsecamente un punto de vista. -- Pakaran (ark a pan) 03:55, 23 nov 2004 (UTC)
Estoy de acuerdo con la mayoría de tus críticas, Minority Report, y el artículo no era NPOV como existía antes. Sin embargo, la afirmación de que están coordinando esfuerzos para implementar la IA semilla es bastante válida. SIAI está desarrollando un programa de IA más pequeño y menos ambicioso, aunque el objetivo principal de su investigación ahora es formalizar el marco teórico para la IA amigable.
Además, utilizar la frase "cuasirreligiosa" para describir una institución que afirma ser completamente laica es sumamente engañoso. La SIAI no tiene afiliación con ninguna religión.
Me interesan sus comentarios sobre el trabajo de von Neumann. No sabía que von Neumann hubiera especulado en este ámbito. Si puede encontrar una fuente, tal vez debería mencionarla en Seed AI . — Schaefer 05:02, 23 de noviembre de 2004 (UTC)
Creo que el uso que hice del término "cuasi-religioso" fue una exageración. Estaba tratando de resumir el aspecto visionario de este trabajo y el uso de un lenguaje que parece deber más a la religión que a la ingeniería. Me disculpo si también caractericé mal el material de Seed AI; al mirar alrededor del sitio vi mucho aire caliente y poca actividad. Leí algunos libros de Von Neumann a fines de los años setenta, y la idea de tener máquinas que se automejoraran era en gran medida su objetivo. Lamento no poder recordar el libro específico. Pensé que podría ser The Computer and the Brain (La computadora y el cerebro), pero un vistazo a la página de contenidos en Amazon no ofrece ninguna pista. La idea ciertamente estaba en el aire en los años setenta, mucho antes del artículo de Vinge de 1993. -- Minority Report 11:09, 23 de noviembre de 2004 (UTC)
He añadido información básica sobre la SIAI-CA y he eliminado una inicial errónea del segundo nombre. También he modificado el primer párrafo para reflejar el hecho de que la SIAI realmente quiere crear software, en lugar de simplemente hablar de ello, y para aclarar que la "Singularidad" en el nombre se refiere a influir en el resultado de una singularidad tecnológica. --Michael Wilson


Fusiones

He fusionado la información de los artículos que se publicaron anteriormente por separado sobre Emerson y Yudkowsky, que consistían en una línea de exposición y algunos enlaces. Esos artículos ahora redirigen a este artículo.

Sí, me gustaría que se eliminara esa redirección. De hecho, la estoy eliminando ahora. Eliezer Yudkowsky ya está wikificado en muchos artículos. No hay razón para redirigir un artículo sobre una persona al artículo de su asociación. Los artículos biográficos se pueden completar con el tiempo y, por ahora, *parece* que no tenemos un artículo sobre Yudkowsky cuando, de hecho, sí lo teníamos. Una línea hubiera sido un buen comienzo para que alguien escribiera más. Estoy haciendo un esbozo biográfico de Eliezer Yudkowsky . -- JoeHenzi 22:52, 21 de abril de 2005 (UTC)

¿Qué es una “IA confiablemente altruista”?

¿Es un comportamiento que promueve la supervivencia y el florecimiento de los demás a costa de los propios? ¿No requeriría esto una IA con conciencia de sí misma y libre albedrío? Pero si una IA tiene libre albedrío, ¿sería moral esclavizarla para que sirva a los intereses de los demás a costa de sus propios intereses? ¿O es esto simplemente un guiño a las " Tres leyes de la robótica " de ciencia ficción de Azimov? Son una versión robótica de los deberes de un policía que pueden verse como altruistas, pero también pueden verse como el cumplimiento de un contrato por el que uno recibe una compensación. ¿O la declaración simplemente imagina una IA sin conciencia de sí misma con un análogo de lo que los etólogos llaman altruismo biológico ? Sea lo que sea lo que SIAI tiene en mente, creo que el artículo debería hacerlo explícito o eliminar la oración ya que, tal como está, es difícil o imposible saber lo que significa. Blanchette 04:43, 25 de septiembre de 2006 (UTC) [ responder ]

El sitio web de la SIAI dedica muchas páginas a abordar esa cuestión. Lamentablemente, no creo que se pueda añadir información concisa a este artículo, que ya es bastante largo; los interesados ​​tendrán que limitarse a consultar las referencias. Tal vez alguien podría ampliar la sección "promoción y apoyo" del artículo "Inteligencia artificial amigable" para detallar mejor la definición de la SIAI del término. --Michael Wilson

Michael, gracias por la pista de que lo que el autor de la frase "IA confiablemente altruista" tenía en mente era lo mismo que "IA amigable". Una búsqueda en el sitio web de SIAI revela que la frase "IA confiablemente altruista" no se usa allí, ni tampoco el término "confiablemente altruista" ni "IA altruista". Por lo tanto, "IA confiablemente altruista" parece un intento de definir la IA amigable que nos aleja de la comprensión de las ideas de SIAI en lugar de acercarnos a ella. Lo he reemplazado por "IA amigable" y los curiosos comprenderán que hay más información disponible a través del enlace anterior a " Inteligencia artificial amigable ". -- Blanchette 07:06, 22 de noviembre de 2006 (UTC) [ responder ]

Notabilidad

Acabo de eliminar el aviso sobre la notoriedad, teniendo en cuenta que se ha escrito sobre el instituto en docenas de publicaciones importantes. Es bastante obvio que el aviso no corresponde. —Comentario anterior sin firmar añadido por 68.81.203.35 ( discusión ) 15:21, 29 de noviembre de 2008 (UTC) [ responder ]

Se necesita atención robótica

Chaosdruid ( discusión ) 08:30 18 mar 2011 (UTC) [ responder ]

¿Artículos autopublicados?

Dos de los varios artículos vinculados están incluso ligeramente revisados ​​por pares. ¿Deberían vincularse? Tampoco hay evidencia de que este trabajo sea digno de mención. Si estas extensas secciones deberían estar aquí, debe haber evidencia de que son dignas de mención y no efectivamente solo un anuncio - David Gerard ( discusión ) 11:53, 18 de julio de 2015 (UTC) [ responder ]

¿Cuándo se produjo el cambio de nombre de SIAI->SI?

El cambio de nombre de SI a MIRI se produjo en enero de 2013. ¿Cuándo se produjo el cambio de nombre de SIAI a SI? No puedo precisarlo con más precisión, pero sí "en algún momento entre 2010 y 2012". - David Gerard ( discusión ) 11:09 10 abr 2016 (UTC) [ responder ]

¿Neutralidad?

El usuario User :Zubin12 agregó una etiqueta de punto de vista de neutralidad en esta edición. Sin embargo, la etiqueta dice "[e]l debate relevante puede encontrarse en la página de discusión", y el único debate sobre cuestiones de neutralidad en la página de discusión se remonta a 2004. Según esta guía, la etiqueta de punto de vista puede eliminarse "en ausencia de cualquier debate". Voy a eliminar la etiqueta ahora, y si alguien siente la necesidad de discutir la neutralidad del artículo, puede hacerlo aquí primero. -- Gbear605 ( discusión ) 00:29 21 jul 2018 (UTC) [ responder ]

Grandes cantidades de sesgo presentes

Es muy probable que el artículo haya sido escrito por personas que apoyan a la organización y su misión, lo cual es de esperar, pero eso ha provocado que aparezca una gran cantidad de sesgos en el artículo. No solo gran parte de la terminología utilizada en el artículo es confusa y no está estandarizada, sino que también contiene muchas conexiones tenues, algunas de las cuales he eliminado.

La sección de investigación es increíblemente confusa y casi imposible de seguir para un profano o incluso para alguien que no esté familiarizado con la subcultura específica asociada con la organización; las críticas o controversias adicionales sobre la organización siguen siendo limitadas. Por esta razón, el artículo no cumple con los estándares W:NPV Zubin12 ( discusión ) 00:49, 21 de julio de 2018 (UTC) [ responder ]

Gracias por agregar tu razonamiento para la etiqueta. No estoy completamente convencido de que deba estar ahí, pero no tengo problema en dejarla por ahora. Gbear605 ( discusión ) 01:07 21 jul 2018 (UTC) [ responder ]
No veo que haya nada tendencioso o confuso en todo esto. ¿Podrías darme algunos ejemplos? K . Bog 15:15, 28 de julio de 2018 (UTC) [ responder ]
Es un anuncio descarado, repleto de fuentes de la organización y otras fuentes primarias, y citas que no son enciclopédicas. Este no es un artículo de enciclopedia Jytdog ( discusión ) 15:40 28 jul 2018 (UTC) [ responder ]
Creo que eso es completamente falso. Las fuentes primarias aquí se utilizan para hechos sencillos, tal como dice WP:PRIMARY; está bien citar investigaciones para decir lo que dicen las investigaciones. La presencia de fuentes primarias no convierte algo en publicidad. Y las citas me parecen perfectamente enciclopédicas. K . Bog 16:06, 28 de julio de 2018 (UTC) [ responder ]
Hmm, dicho esto, la sección de investigación tiene algunos problemas. Así que lo solucionaré y probablemente te sentirás mejor después. K . Bog 16:21, 28 de julio de 2018 (UTC) [ responder ]
Es repugnante ver fancruft con fuentes de mierda y blogueantes sobre temas científicos. Entiendo más sobre videojuegos. Esto es simplemente asqueroso. Jytdog ( discusión ) 17:04 28 jul 2018 (UTC) [ responder ]
Por favor, no dejes que tus emociones se inmiscuyan en esto. Si no eres capaz de evaluar este tema de manera razonable, entonces pasa a otras cosas. Además, estaba en medio de ediciones importantes, como ya señalé. No es de buena educación cambiar el artículo al mismo tiempo. Voy a devolverlo a la versión que estoy escribiendo, porque estaba trabajando en él primero, y luego incorporaré tus cambios si aún son relevantes y adecuados. K . Bog 17:29, 28 de julio de 2018 (UTC) [ responder ]
"Disgusto" es más una opinión, y bastante apropiada para la edición flagrante de un fan. Esto requiere una revisión seria por parte de alguien que no sea un fan y una búsqueda exhaustiva de fuentes primarias - David Gerard ( discusión ) 17:40, 28 de julio de 2018 (UTC) [ responder ]
Pero no se trata de una edición de un fan, y las fuentes primarias son aceptables en los contextos utilizados aquí. Si crees que requiere una revisión de terceros, márcalo para que la revise un tercero; no puedes afirmar que eres imparcial si tienes un problema, ya sea negativo o positivo. K . Bog 17:44, 28 de julio de 2018 (UTC) [ responder ]
@Jytdog puedes terminar si quieres, pero interrumpiste una edición importante que estaba en progreso (esta es la segunda vez que me haces esto, según recuerdo) y voy a revisarlo en mi borrador antes de ver tus cambios. K . Bog 18:03, 28 de julio de 2018 (UTC) [ responder ]
No sabía que estabas trabajando en la página. Para eso están las etiquetas. Por favor, comunícate en lugar de editar. Me pondré en contacto contigo mismo. Jytdog ( discusión ) 18:06 28 jul 2018 (UTC) [ responder ]
Gracias. Busqué la etiqueta pero no recordaba cómo se llamaba. Por eso la escribí aquí en la página de discusión. K . Bog 18:11, 28 de julio de 2018 (UTC) [ responder ]

Fusión de cambios

@ Usuario:Jytdog estas son las diferencias significativas entre mi versión y tu versión:

Las otras cosas que cambiaste son cosas que estoy de acuerdo en cambiar. Terminé el artículo a mi satisfacción actual. Avísame si hay algún problema con algo de esto o si la fusión está completa K . Bog 19:40, 28 de julio de 2018 (UTC) [ responder ]

Todavía hay demasiadas referencias primarias o SPS. Ver más abajo.
DE ACUERDO
  • Hawking, Stephen ; Tegmark, Max ; Russell, Stuart ; Wilczek, Frank (2014). "Trascendiendo la complacencia en las máquinas superinteligentes". The Huffington Post . Consultado el 11 de octubre de 2015 .
  • Basulto, Dominic (2015). «Las mejores ideas para evitar que la inteligencia artificial destruya el planeta». The Washington Post . Consultado el 11 de octubre de 2015 .
  • Ackerman, Elise (2008). «Este sábado se celebrará en San José una conferencia anual sobre IA». San Jose Mercury News . Consultado el 11 de octubre de 2015 .
  • "Los científicos temen que las computadoras se vuelvan más inteligentes que los humanos". Fox News Channel . Associated Press. 2007. Consultado el 12 de octubre de 2015 .
  • Abate, Tom (2006). "¿Más inteligente que tú?". San Francisco Chronicle . Consultado el 12 de octubre de 2015 .
  • Abate, Tom (2007). «Reunión pública reexaminará el futuro de la inteligencia artificial». San Francisco Chronicle . Consultado el 12 de octubre de 2015 .
  • Chen, Angela (2014). «Resoluciones más racionales». The Wall Street Journal . Consultado el 5 de marzo de 2015 .
  • Tegmark, Max (2017). La vida 3.0: ser humano en la era de la inteligencia artificial . Estados Unidos: Knopf . ISBN. 978-1-101-94659-6. {{cite book}}: |access-date=requiere |url=( ayuda )
  • Russell, Stuart ; Norvig, Peter (2009). Inteligencia artificial: un enfoque moderno . Prentice Hall. ISBN 978-0-13-604259-4.
  • LaFrance, Adrienne (2015). «Construir robots con mejores valores morales que los humanos». The Atlantic . Consultado el 12 de octubre de 2015 .
  • Gallagher, Brian. "Scary AI es más 'Fantasía' que 'Terminator'". Nautilus . Consultado el 28 de julio de 2018 .
  • Clarke, Richard A. (2017). Advertencias: Encontrar Casandras para detener catástrofes . HarperCollins Publishers. ISBN 0062488023.
blogger pero aceptable
  • Hsu, Jeremy (2015). "Cómo asegurarse de que el rápido crecimiento de la IA no sea una sorpresa". Discover . Consultado el 12 de octubre de 2015 .
  • D'Orazio, Dante (2014). "Elon Musk dice que la inteligencia artificial es 'potencialmente más peligrosa que las armas nucleares'". The Verge . Consultado el 5 de octubre de 2015 .
churnalismo
  • De Looper, Christian (2015). "Investigación sugiere que el cerebro humano es 30 veces más potente que las mejores supercomputadoras". Tech Times . Consultado el 12 de octubre de 2015 .
Primario/SPS
(nota: las fuentes de la gente de MIRI se utilizan como fuentes primarias, donde el contenido comenta sobre ellas)
  • "Formulario 990 del IRS" (PDF) . Instituto de Investigación de Inteligencia Artificial. 2013. Consultado el 12 de octubre de 2015 .
  • "Equipo". Instituto de Investigación de Inteligencia Artificial. 2016. Consultado el 4 de octubre de 2016 .
  • Soares, Nate; Fallenstein, Benja (2015). "Alineando la superinteligencia con los intereses humanos: una agenda de investigación técnica". En Miller, James; Yampolskiy, Roman; Armstrong, Stuart; et al. (eds.). La singularidad tecnológica: gestionar el viaje . Springer. {{cite book}}: Enlace externo en |chapterurl=( ayuda ) ; Parámetro desconocido |chapterurl=ignorado ( |chapter-url=sugerido) ( ayuda )
  • "Talleres de investigación". Instituto de Investigación de Inteligencia Artificial. 2013. Consultado el 11 de octubre de 2015 .
  • GiveWell (2015). Riesgos potenciales de la inteligencia artificial avanzada (Informe) . Consultado el 11 de octubre de 2015 . {{cite report}}: La cita tiene un parámetro desconocido vacío: |coauthors=( ayuda )
  • "Plan estratégico del Singularity Institute" (PDF) . Instituto de Investigación de Inteligencia Artificial. 2011. Consultado el 12 de octubre de 2015 .
  • "Singularity Summit: An Annual Conference on Science, Technology, and the Future". Instituto de Investigación de Inteligencia Artificial. 2012. Consultado el 12 de octubre de 2015 .
  • Muehlhauser, Luke (2012). «Boletín informativo de julio de 2012». Blog de MIRI . Consultado el 12 de octubre de 2015 .
  • Stiefel, Todd; Metskas, Amanda K. (22 de mayo de 2013). "Julia Galef" (podcast) . The Humanist Hour . Episodio 083. The Humanist . Consultado el 3 de marzo de 2015 .
  • Muehlhauser, Luke (2013). "Ahora somos el 'Machine Intelligence Research Institute' (MIRI)". Blog de MIRI . Consultado el 12 de octubre de 2015 .
  • Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias (Primera edición). ISBN 0199678111.
  • Muehlhauser, Luke (2015). "Musk y Gates sobre superinteligencia y despegue rápido". Blog de Luke Muehlhauser . Consultado el 12 de octubre de 2015 .
  • Future of Life Institute (2015). Prioridades de investigación para una inteligencia artificial robusta y beneficiosa (PDF) (Informe) . Consultado el 4 de octubre de 2015 . {{cite report}}: La cita tiene un parámetro desconocido vacío: |coauthors=( ayuda )
  • "Premiados 2015". Future of Life Institute . 2015 . Consultado el 5 de octubre de 2015 .
  • Graves, Matthew (8 de noviembre de 2017). «Por qué deberíamos preocuparnos por la superinteligencia artificial». Skeptic . The Skeptics Society . Consultado el 28 de julio de 2018 .
  • Bostrom, Nick ; Yudkowsky, Eliezer (2014). "La ética de la inteligencia artificial". En Frankish, Keith; Ramsey, William (eds.). The Cambridge Handbook of Artificial Intelligence . Nueva York: Cambridge University Press. ISBN 978-0-521-87142-6. {{cite book}}: Enlace externo en |chapterurl=( ayuda ) ; Parámetro desconocido |chapterurl=ignorado ( |chapter-url=sugerido) ( ayuda )
  • Yudkowsky, Eliezer (2008). "La inteligencia artificial como factor positivo y negativo en el riesgo global". En Bostrom, Nick ; Ćirković, Milan (eds.). Riesgos catastróficos globales . Oxford University Press. ISBN 978-0199606504. {{cite book}}: Enlace externo en |chapterurl=( ayuda ) ; Parámetro desconocido |chapterurl=ignorado ( |chapter-url=sugerido) ( ayuda )
  • LaVictoire, Patrick; Fallenstein, Benja; Yudkowsky, Eliezer ; Bárász, Mihály; Christiano, Paul; Herreshoff, Marcello (2014). "Equilibrio del programa en el dilema del prisionero a través del teorema de Löb". Interacción multiagente sin coordinación previa: artículos del taller AAAI-14 . Publicaciones de la AAAI.
  • Soares, Nate; Levinstein, Benjamin A. (2017). "Engañar a la muerte en Damasco" (PDF) . Taller de Epistemología Formal (FEW) . Consultado el 28 de julio de 2018 .
  • Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer ; Armstrong, Stuart (2015). "Corrigibilidad". Talleres de la AAAI: Talleres en la vigésimo novena conferencia de la AAAI sobre inteligencia artificial, Austin, Texas, 25 y 26 de enero de 2015. Publicaciones de la AAAI.
  • Taylor, Jessica (2016). "Cuantificadores: una alternativa más segura a los maximizadores para una optimización limitada". Talleres en la 30.ª Conferencia AAAI sobre Inteligencia Artificial .
  • Hibbard, Bill. "Cómo evitar comportamientos no deseados de la IA" (PDF) . Inteligencia artificial general: 5.ª conferencia internacional, AGI 2012, Oxford, Reino Unido, 8 al 11 de diciembre de 2012. Actas .
  • Hibbard, Bill. "Apoyo a la toma de decisiones para un diseño seguro de IA" (PDF) . Inteligencia artificial general: 5.ª conferencia internacional, AGI 2012, Oxford, Reino Unido, 8 al 11 de diciembre de 2012. Actas .</ref>
  • Yudkowsky, Eliezer (2011). "Sistemas de valores complejos en la IA amigable" (PDF) . Inteligencia artificial general: 4.ª conferencia internacional, AGI 2011, Mountain View, CA, EE. UU., 3 al 6 de agosto de 2011. Berlín: Springer.
Jytdog ( discusión ) 20:04 28 jul 2018 (UTC) [ responder ]
Eliminado el churnalismo, no me di cuenta. Su lista de fuentes primarias/SPS es demasiado larga porque está incluyendo muchas organizaciones independientes, así como autores. Bostrom aparece como asesor en su sitio web, no como miembro de la organización; si Russell es secundario, entonces también lo es Bostrom. Givewell y FLI son entidades separadas. The Humanist Hour es una entidad separada. No son "gente de MIRI". Y si un grupo externo escribe o publica en este grupo, no es una fuente primaria, es una fuente secundaria. Por ejemplo, FLI solo es una fuente primaria si hablan sobre sí mismos.
Además, algunas de esas fuentes primarias se utilizan en conjunto con fuentes secundarias. Si un hecho es citado tanto por una fuente primaria relevante como por una fuente secundaria que dicen lo mismo, ¿qué te obliga a eliminar la fuente primaria? Por supuesto, a mí no me importa, así que he seguido adelante y he eliminado esas, así como algunas otras de tu lista. La mayoría de las fuentes son secundarias, sin embargo, no hay una política wiki que determine qué parte de un artículo puede tener fuentes primarias, siempre que haya suficientes fuentes secundarias. Si un artículo puede hacerse más largo con el uso apropiado de fuentes primarias, sin que sea demasiado largo, entonces es una mejora. Porque una información más precisa es simplemente algo bueno.
Además, la sección ya no está escrita como un anuncio, por lo que ninguna de las etiquetas está justificada. K . Bog 20:58, 28 de julio de 2018 (UTC) [ responder ]
@Jytdog : Aquí solo hay una única fuente autopublicada, el informe de FLI, que satisface WP:SPS . Solo hay alrededor de una docena de fuentes primarias (es decir, artículos escritos por personas de MIRI): menos de la mitad de las fuentes en todo el artículo, y todas ellas son publicadas por terceros y, por lo demás, de acuerdo con WP:Primary . Por lo tanto, el artículo se basa principalmente en fuentes secundarias, por lo tanto, la etiqueta de fuente primaria no está justificada, ¿ven? En cuanto al anuncio, ¿hay alguna redacción específica que suene como un anuncio? K. Bog 04:02, 25 de agosto de 2018 (UTC) [ responder ]
No tengo palabras. Puede que las tenga más adelante. Jytdog ( discusión ) 04:19 25 ago 2018 (UTC) [ responder ]

ruptura arbitraria

Contenido como este:

Sostiene que las intenciones de los operadores son demasiado vagas y contextuales para ser codificadas fácilmente. [1]

Referencias

  1. ^ Yudkowsky, Eliezer (2011). "Sistemas de valores complejos en la IA amigable" (PDF) . Inteligencia artificial general: 4.ª conferencia internacional, AGI 2011, Mountain View, CA, EE. UU., 3 al 6 de agosto de 2011. Berlín: Springer.
Todavía está en el artículo. Se trata de una fuente primaria (un artículo de conferencia publicado en su propio sitio web e incluso con marca) y el contenido toma algo de él al azar. No es enciclopédico. Esto es lo que hacen los fanáticos o las personas con un COI (editan de la misma manera). Hay un montón de otros artículos de conferencias como este también y se usan de la misma manera. Los artículos de conferencias son lo peor de todo para las publicaciones científicas. Todavía hay blogs o revistas electrónicas bastante malos como OZY y Nautlius.
Un tipo diferente de mal:

A principios de 2015, la investigación de MIRI fue citada en un documento de prioridades de investigación que acompañaba a una carta abierta sobre IA que pedía "una investigación ampliada destinada a garantizar que los sistemas de IA cada vez más capaces sean robustos y beneficiosos". [1] Musk respondió financiando un gran programa de subvenciones de seguridad de IA, con beneficiarios de subvenciones que incluyeron a Bostrom, Russell, Bart Selman , Francesca Rossi , Thomas Dietterich , Manuela M. Veloso e investigadores de MIRI. [2] MIRI se expandió como parte de una ola general de mayor interés en la seguridad entre otros investigadores de la comunidad de IA. [3]

Referencias

  1. ^ Future of Life Institute (2015). Prioridades de investigación para una inteligencia artificial robusta y beneficiosa (PDF) (Informe) . Consultado el 4 de octubre de 2015 . {{cite report}}: La cita tiene un parámetro desconocido vacío: |coauthors=( ayuda )
  2. ^ Basulto, Dominic (2015). "Las mejores ideas para evitar que la inteligencia artificial destruya el planeta". The Washington Post . Consultado el 11 de octubre de 2015 .
  3. ^ Tegmark, Max (2017). Vida 3.0: Ser humano en la era de la inteligencia artificial . Estados Unidos: Knopf . ISBN. 978-1-101-94659-6.
En la primera frase
a) La primera cita es completamente errónea, lo cual he corregido.
b) La cita no aparece en la pieza citada (que no es la carta abierta en sí, sino que dice de sí misma "Este artículo fue redactado con aportes de los asistentes a la conferencia de 2015 El futuro de la IA: oportunidades y desafíos (ver Agradecimientos), y fue la base para una carta abierta que ha recogido casi 7000 firmas en apoyo de las prioridades de investigación descritas aquí".
c) El documento citado no menciona a MIRI: este contenido que dice "La investigación de MIRI fue citada en un documento de prioridades de investigación..." es un mero comentario de quien lo escribió, similar a la forma en que se utilizan los artículos de la conferencia, que se analizó anteriormente. Nuevamente, no lo hacemos.
En la segunda frase:
a) La fuente del Washington Post no menciona la carta abierta. (Entiendo el objetivo, pero no es una forma válida de hacerlo)
b) Las siguientes personas que reciben dinero no aparecen mencionadas en la fuente del Washington Post: Russell, Selman, Rossi, Dietterich. Sin embargo, sí se menciona a Bostrom, Veloso y Fallenstein, de MIRI. El artículo del Washington Post menciona a Heather Roff Perkins, Owain Evans y Michael Webb. Pero esta lista no tiene nada que ver con MIRI, así que ¿qué hace aquí?
El contenido ni siquiera intenta resumir la fuente. Se trata de una edición impulsada por algo distinto a los métodos académicos básicos que utilizamos aquí.
La tercera frase:
La fuente que aparece aquí es la que realmente cuenta toda la historia de este párrafo. La referencia carece de un número de página (otro problema de erudición básica). No dice que MIRI se haya expandido per se; hay una oración que menciona a MIRI y dice "Las importantes donaciones para la seguridad de la IA permitieron ampliar la investigación en nuestras organizaciones hermanas sin fines de lucro más grandes: el Machine Intelligence Research Institute en Berkeley, el Future of Humanity Institute en Oxford y el Centre for the Study of Existential Risk en Cambridge (Reino Unido)".
He corregido el párrafo aquí. Jytdog ( discusión ) 15:00 25 ago 2018 (UTC) [ responder ]

Sección anterior con respuestas intercaladas y firmas agregadas a fragmentos aislados

Contenido como este:

Sostiene que las intenciones de los operadores son demasiado vagas y contextuales para ser codificadas fácilmente. [1]

Referencias

  1. ^ Yudkowsky, Eliezer (2011). "Sistemas de valores complejos en la IA amigable" (PDF) . Inteligencia artificial general: 4.ª conferencia internacional, AGI 2011, Mountain View, CA, EE. UU., 3 al 6 de agosto de 2011. Berlín: Springer.
Todavía está en el artículo. Esta es una fuente primaria (un artículo de conferencia publicado en su propio sitio web e incluso con marca) y el contenido toma algo de él al azar. No es enciclopédico. Esto es lo que hacen los fanáticos o las personas con un COI (editan de la misma manera). Hay un montón de otros artículos de conferencias como este también y se usan de la misma manera. Los artículos de conferencias son lo peor de todo para las publicaciones científicas. Todavía hay blogs o revistas electrónicas bastante malos como OZY y Nautlius. Jytdog ( discusión ) 15:00, 25 de agosto de 2018 (UTC) [ responder ]
He explicado una y otra vez que las fuentes primarias publicadas son perfectamente enciclopédicas, y OZY y Nautilus son fuentes secundarias publicadas. La informática es diferente de otros campos: la mayor parte del trabajo en informática se realiza en talleres y conferencias en lugar de revistas, y no se consideran "de última generación", por lo que quizás no estés preparado para saber qué es confiable o no en el campo de la informática. No sé si realmente has visto esa cita; el contenido de este artículo resume aproximadamente la tesis. Si quieres que haya *más* detalles en este artículo, está bien; siéntete libre de agregarlos tú mismo, pero claramente esa no es una razón para quitar ningún detalle. Entonces, no entiendo cuál es el problema. Tal vez deberías familiarizarte con el uso de fuentes académicas en otras partes de Wikipedia, porque así es exactamente como escribimos las cosas todo el tiempo. K . Bog 21:38, 25 de agosto de 2018 (UTC) [ responder ]
Entiendo tu interpretación de WP:PRIMARY ; no estás utilizando fuentes primarias con cuidado y, en general, su uso es demasiado extenso; por favor, revisa WP:PRIMAY. Hay grandes señales de alerta en esa parte de la política que estás ignorando y te estás centrando únicamente en la parte de "puede usarse" Jytdog ( discusión ) 15:02, 26 de agosto de 2018 (UTC) [ responder ]
Pasan las señales de advertencia. No veo ninguna base para decir que son "demasiado extensas"; son menos de la mitad. No hay nada en la política que lo impida, y no he visto a nadie aplicar este tipo de tratamiento a artículos sobre otros temas. Las señales de advertencia no implican que solo se puedan usar algunas de ellas, sino que solo se pueden usar de unas pocas maneras, siendo esta una de esas maneras. K . Bog 17:06, 26 de agosto de 2018 (UTC) [ responder ]
Un tipo diferente de mal:

A principios de 2015, la investigación de MIRI fue citada en un documento de prioridades de investigación que acompañaba a una carta abierta sobre IA que pedía "una investigación ampliada destinada a garantizar que los sistemas de IA cada vez más capaces sean robustos y beneficiosos". [1] Musk respondió financiando un gran programa de subvenciones de seguridad de IA, con beneficiarios de subvenciones que incluyeron a Bostrom, Russell, Bart Selman , Francesca Rossi , Thomas Dietterich , Manuela M. Veloso e investigadores de MIRI. [2] MIRI se expandió como parte de una ola general de mayor interés en la seguridad entre otros investigadores de la comunidad de IA. [3]

Referencias

  1. ^ Future of Life Institute (2015). Prioridades de investigación para una inteligencia artificial robusta y beneficiosa (PDF) (Informe) . Consultado el 4 de octubre de 2015 . {{cite report}}: La cita tiene un parámetro desconocido vacío: |coauthors=( ayuda )
  2. ^ Basulto, Dominic (2015). "Las mejores ideas para evitar que la inteligencia artificial destruya el planeta". The Washington Post . Consultado el 11 de octubre de 2015 .
  3. ^ Tegmark, Max (2017). Vida 3.0: Ser humano en la era de la inteligencia artificial . Estados Unidos: Knopf . ISBN. 978-1-101-94659-6.
En la primera frase
a) La primera cita es completamente errónea, lo cual ya he corregido. Jytdog ( discusión ) 15:00 25 ago 2018 (UTC) [ responder ]
Claro. Problema técnico, no lo escribí yo, felicitaciones por notarlo. K . Bog 21:38, 25 de agosto de 2018 (UTC) [ responder ]
b) La cita no aparece en el texto citado (que no es la carta abierta en sí, sino que dice de sí misma: "Este artículo fue redactado con el aporte de los asistentes a la conferencia de 2015 El futuro de la IA: oportunidades y desafíos (ver Agradecimientos), y fue la base para una carta abierta que ha recolectado casi 7000 firmas en apoyo de las prioridades de investigación descritas aquí". Jytdog ( discusión ) 15:00, 25 agosto 2018 (UTC) [ responder ]
Seguro, probablemente se trataba de una cita de alguna otra fuente que se perdió en el constante cambio y pirateo. Este es el tipo de problema que tienen los artículos cuando la gente empieza a revisarlos sin prestar atención al proceso básico de redacción de contenido. K . Bog 21:38, 25 de agosto de 2018 (UTC) [ responder ]
Chocamos antes al intentar arreglar esto. Me hice a un lado y te dejé hacer lo tuyo. En esta diferencia escribiste: Terminé el artículo a mi satisfacción actual. El error es tuyo; este y tu respuesta reflejan tu falta de compromiso con la misión de Wikipedia y las políticas y pautas a través de las cuales la hacemos realidad. Jytdog ( discusión ) 15:22 26 ago 2018 (UTC) [ responder ]
c) El documento citado no menciona a MIRI: este contenido que dice "La investigación de MIRI fue citada en un documento de prioridades de investigación..." es un comentario puro de quien lo escribió; similar a la forma en que se utilizan los artículos de la conferencia, discutido anteriormente. Nuevamente, no hacemos esto. Jytdog ( discusión ) 15:00, 25 de agosto de 2018 (UTC) [ responder ]
No, esa es una declaración directa de hechos, que es diferente de un comentario. Supongo que hacemos declaraciones directas de hechos todo el tiempo. K . Bog 21:38, 25 de agosto de 2018 (UTC) [ responder ]
Esa no es una forma válida de utilizar las fuentes en Wikipedia ; resumimos lo que dicen, no conectamos los puntos nosotros mismos . Esto es lo mismo que la gente te está diciendo en otras partes de esta página. Jytdog ( discusión ) 15:22 26 ago 2018 (UTC) [ responder ]
No se trata de "unir los puntos" si se trata de una declaración de hechos directa, literal y neutral. Eso es lo que le he estado diciendo a la otra persona que presentó esta queja, y en su caso tampoco han dado ninguna refutación convincente. K . Bog 17:06, 26 de agosto de 2018 (UTC) [ responder ]
Vale, resulta que el documento citado menciona explícitamente a MIRI en la página 112: "La investigación en esta área... podría ampliar o criticar los enfoques existentes iniciados por grupos como el Machine Intelligence Research Institute". K . Bog 09:57, 27 de agosto de 2018 (UTC) [ responder ]
En la segunda frase:
a) La fuente del Washington Post no menciona la carta abierta. (Entiendo el objetivo, pero no es una forma válida de hacerlo) Jytdog ( discusión ) 15:00, 25 de agosto de 2018 (UTC) [ responder ]
Está bien. Entonces reescríbalo como "financiado por Musk". K . Bog 21:38, 25 de agosto de 2018 (UTC) [ responder ]
Violaste la política aquí; nuevamente en esta diferencia escribiste: Terminé el artículo a mi satisfacción actual. . Jytdog ( discusión ) 15:22 26 ago 2018 (UTC) [ responder ]
b) Las siguientes personas que se mencionan como personas que reciben dinero no se mencionan en la fuente del Washington Post: Russell, Selman, Rossi, Dietterich. Sin embargo, se menciona a Bostrom, Veloso y Fallenstein en MIRI. El artículo del Washington Post menciona a Heather Roff Perkins, Owain Evans y Michael Webb. Pero esta lista no tiene nada que ver con MIRI, así que ¿qué hace esto aquí? Jytdog ( discusión ) 15:00 25 ago 2018 (UTC) [ responder ]
No tengo acceso al Washington Post, así que no lo sé. Nuevamente, supongo que la información estaba presente en múltiples fuentes, que se perdió en uno o más de tus ataques. K . Bog 21:38, 25 de agosto de 2018 (UTC) [ responder ]
Violaste la política aquí; nuevamente en esta diferencia escribiste: Terminé el artículo a mi satisfacción actual. . Jytdog ( discusión ) 15:22 26 ago 2018 (UTC) [ responder ]
El contenido ni siquiera intenta resumir la fuente. Se trata de una edición impulsada por algo distinto a los métodos académicos básicos que utilizamos aquí. Jytdog ( discusión ) 15:00 25 ago 2018 (UTC) [ responder ]
No se resume la fuente, se resume la parte de la fuente que es relevante para el tema del artículo. Tal vez debería pensar más en este tipo de cosas antes de lanzar acusaciones. K . Bog 21:40, 25 de agosto de 2018 (UTC) [ responder ]
Violaste la política aquí; nuevamente en esta diferencia escribiste: Terminé el artículo a mi satisfacción actual. . Está claro en tu comentario que estás persiguiendo lo que sea que te interese e ignorando la política de WP para llegar a ello. Jytdog ( discusión ) 15:22, 26 de agosto de 2018 (UTC) [ responder ]
En cuanto a todas las acusaciones anteriores: "Lo completé a mi entera satisfacción" no significa "está libre de errores". En ese contexto, estaba hablando de la fusión de cambios entre mi versión y tu cambio. Además, tu versión tenía la misma sección de "historial" que la mía, si mal no recuerdo, y de todos modos, parte de ella ha cambiado desde entonces. Ten en cuenta que yo no fui el autor original de estos (según mi mejor recuerdo). K . Bog 17:06, 26 de agosto de 2018 (UTC) [ responder ]
La tercera frase:
La fuente que aparece aquí es la que realmente cuenta toda la historia de este párrafo. La referencia carece de un número de página (otro problema de erudición básica). Jytdog ( discusión ) 15:00 25 ago 2018 (UTC) [ responder ]
"¡Erudición básica!". Mi libro electrónico no tiene números de página, por lo que no sé en qué página se encuentra, pero ¿de alguna manera asumes que soy malo en la erudición básica? Eso es bastante arrogante de tu parte. Por favor, hazlo mejor en el futuro. K . Bog 21:38, 25 de agosto de 2018 (UTC) [ responder ]
Los libros tienen páginas. Ni siquiera tengo el libro y pude encontrar las páginas relevantes. Jytdog ( discusión ) 15:22 26 ago 2018 (UTC) [ responder ]
No es mi libro electrónico. No veo qué más hay que decir aquí. K . Bog 17:06, 26 de agosto de 2018 (UTC) [ responder ]
Respuesta absolutamente mala (por cierto, la mayoría de los lectores de libros electrónicos te permiten cambiar entre "texto fluido" y "formato de libro"). Es una cuestión de prestar atención a la buena erudición, lo que debería llevarte a encontrar que los números de página no se centran en lo que posees. No se trata de ti. Las citas sirven para que otras personas puedan a) verificar la información y b) aprender más. Jytdog ( discusión ) 17:21 26 ago 2018 (UTC) [ responder ]
No dice que MIRI se haya expandido per se; hay una oración que menciona a MIRI y dice "Las importantes donaciones para la seguridad de la IA permitieron ampliar la investigación en nuestras organizaciones hermanas sin fines de lucro más grandes: el Machine Intelligence Research Institute en Berkeley, el Future of Humanity Institute en Oxford y el Centre for the Study of Existential Risk en Cambridge (Reino Unido)". Jytdog ( discusión ) 15:00, 25 de agosto de 2018 (UTC) [ responder ]
La expansión de la investigación en un grupo de investigación = expansión. Sería idiota discutir sobre este nivel de semántica. K . Bog 21:38, 25 de agosto de 2018 (UTC) [ responder ]
Es una exageración. Jytdog ( discusión ) 15:22 26 ago 2018 (UTC) [ responder ]
Lenguaje neutral y factual, escrito por un tercero y directamente relevante para el tema. "¡Ah, pero Tegmark trabaja en FLI!" Claro, pero eso no lo convierte en una exageración. K . Bog 17:06, 26 de agosto de 2018 (UTC) [ responder ]
No. La expansión de MIRI está contratando a más personas, obteniendo nuevos espacios, etc. Todo lo que podemos sacar de esa frase es que obtuvieron más fondos para la investigación. Por lo que sabemos, antes de eso no contaban con los fondos suficientes y pudieron utilizar la capacidad que ya tenían, que estaba infrautilizada. "MIRI se expandió" es literal y está sujeto a políticas, no está respaldado por la fuente y es exagerado. Exageración. Jytdog ( discusión ) 17:25 26 ago 2018 (UTC) [ responder ]
La redacción que propones está bien. Lo que quiero decir es que pasar de una subutilización a una utilización plena sigue siendo "expansión", por lo que la acusación de que estoy escribiendo "exageradamente" es engañosa. K . Bog 17:38, 26 de agosto de 2018 (UTC) [ responder ]
He corregido el párrafo aquí. Jytdog ( discusión ) 15:00 25 ago 2018 (UTC) [ responder ]
Estoy de acuerdo con esta reorganización, pensé que sería más fácil para los lectores seguir una conversación que está fragmentada (como está ahora), simplemente no puedo insertar las firmas de otras personas. K . Bog 17:06, 26 de agosto de 2018 (UTC) [ responder ]

Mención de Nick Bostrom

Kbog, ¿por qué estás criticando una mención tangencial de Nick Bostrom? Si es MIRI, es una exageración de origen propio, y si no lo es, es tangencial. Tener muchos números azules después (uno de los cuales es una entrevista de Bill Gates en YouTube sin mención de MIRI) no lo hace parecer más genial ni nada de eso. - David Gerard ( discusión ) 08:17, 25 de agosto de 2018 (UTC) [ responder ]

Esa mención estaba en mi versión y en la de Jytdog del artículo, claramente no estoy tratando de editar nada de la guerra *dentro* del artículo, esto es el típico negrita-reversión-discusión, exactamente como se supone que funcionan las cosas. La relevancia es que es el contexto para la expansión del interés y la financiación de la organización. Por ejemplo, en el artículo de la Segunda Guerra Mundial , la sección "Antecedentes" tiene una mención de la Primera Guerra Mundial, y eso no es tangencial. Tienes razón en que Gates no es relevante, lo saqué del artículo. La exageración es un lenguaje no neutral, como "estimado", "muy respetado", etc., mientras que este artículo usa un lenguaje fáctico simple. De todos modos, la redacción actual debería dejarlo más claro; ahora puedo ver cómo la redacción anterior podría haberlo hecho parecer fuera de lugar y gratuito. K . Bog 08:28, 25 de agosto de 2018 (UTC) [ responder ]
Usuario:Kbog La redacción actual es todavía un poco exagerada y el artículo tiene el problema endémico de simplemente citar la opinión de otros en lugar de ser una verdadera entrada enciclopédica. Hay demasiados "Cree" y "Argumenta" en el artículo como para que pueda considerarse una entrada enciclopédica adecuada. — Comentario anterior sin firmar agregado por Zubin12 ( discusióncontribuciones ) 00:58, 26 de agosto de 2018 (UTC) [ responder ]
"Cree" y "argumenta" no son palabras exageradas, son representaciones neutrales y factuales de las posiciones de las personas: no apoyan ni condenan ninguna idea, afirman un hecho no controvertido sobre lo que las personas están diciendo. Si desea una alternativa, podemos eliminarlas con declaraciones puras del material, por ejemplo, reemplazar "Muelhauser y Bostrom argumentan que los valores morales codificados de forma rígida eventualmente serían vistos como obsoletos" por "los valores morales codificados de forma rígida eventualmente serían vistos como obsoletos", y así sucesivamente. Pero la atribución adecuada de argumentos parece una forma más enciclopédica de hacer las cosas. K . Bog 01:26, 26 de agosto de 2018 (UTC) [ responder ]
Muchas de las personas parafraseadas o citadas en el artículo solo tienen una conexión tangencial con el instituto MIRI. La sección de investigación necesita una reescritura total para incluir la única investigación que realizó el instituto o que estuvo estrechamente relacionada con él. Solo se deben incluir en la enciclopedia argumentos/opiniones notables o relevantes. Zubin12 ( discusión ) 01:44 26 ago 2018 (UTC) [ responder ]
No conozco ninguna política de Wikipedia contra las afirmaciones que tienen una conexión tangencial con el tema del artículo. Toda la investigación en la sección de investigación se refiere a investigaciones realizadas por personas del instituto o estrechamente relacionadas con él. Todos los argumentos y opiniones aquí son publicados por terceros, por lo que son lo suficientemente notables como para incluirlos. K . Bog 01:48, 26 de agosto de 2018 (UTC) [ responder ]
En tu última respuesta, dijiste: "El hecho de que Musk haya respaldado el libro es irrelevante, tu argumento de que era necesario mencionarlo porque le dio una subvención al MIRI es superfluo". No sé qué quieres decir con esto: "superfluo" significa "redundante"; si mi argumento es redundante, entonces tengo razón de todos modos. La sección de "historia" es una historia sobre cosas relevantes que han sucedido en el pasado, y parte de esta historia es la participación de Musk. De todos modos, no puedes eliminar material sin crear primero un consenso en la página de discusión. Simplemente decir "llevemos esto a la página de discusión" no te da derecho a continuar con la guerra de ediciones. El material permanece hasta que se decida cambiarlo. K . Bog 01:53, 26 de agosto de 2018 (UTC) [ responder ]
Como editor externo, estoy de acuerdo con Kbog en que la reversión realizada en https://en.wikipedia.org/w/index.php?title=Machine_Intelligence_Research_Institute&diff=next&oldid=856553209 debería dejarse esencialmente como está hasta que se llegue a un consenso en la página de discusión. Gbear605 ( discusión ) 01:57 26 ago 2018 (UTC) [ responder ]
Vale, lo he modificado y creo que es una reescritura aceptable: el respaldo de Musk ahora está en el último párrafo, junto a sus acciones, para que nadie lo considere irrelevante. K . Bog 02:02, 26 de agosto de 2018 (UTC) [ responder ]


El artículo trata sobre el MIRI, no sobre todos los artículos que lo han citado o han sido influenciados por él.
1.) Mencionar que el libro de Nick Bostrom ha sido respaldado por Elon Musk no está relacionado directamente con el MIRI, solo a través de tenues efectos de segundo orden. Basta con decir que el libro ayudó a generar un debate público que atrajo la atención hacia la organización. El hecho de que Musk lo haya respaldado no tiene ninguna conexión directa con el tema del artículo. El hecho de que el MIRI haya recibido una subvención gracias a una conferencia organizada por Musk se menciona por separado.
2.) El hecho de que esto fuera seguido por un artículo en el Huffington Post escrito por dos personas famosas y respetadas, simplemente lo hizo más exagerado al mencionar a personas famosas que mencionaron a la organización para aumentar su credibilidad.
3.) El lenguaje de la sección de investigación es complicado y necesita ser simplificado a un nivel más comprensible y general. Las fuentes y las citas en sí están bien, pero el nivel y la terminología no estándar utilizada hacen que parezca un fan-crutf. (Además, al igual que me comporté de manera inapropiada al hacer una guerra de ediciones, la etiqueta debería volver a agregarse, ya que no debería eliminarse hasta que la discusión en la página de discusión logre un consenso). Zubin12 ( discusión ) 02:08, 26 de agosto de 2018 (UTC) [ responder ]
Estoy de acuerdo en que se deben volver a agregar las etiquetas hasta que se llegue a un consenso. Las estoy agregando nuevamente ahora. Gbear605 ( discusión ) 02:11, 26 de agosto de 2018 (UTC) [ responder ]
Según la Política de Wiki, una plantilla de mantenimiento debe eliminarse inmediatamente si existe un consenso de que su ubicación inicial fue un error (nota: el consenso no significa necesariamente que "todos estén de acuerdo"). Podemos ver positivamente en el artículo que las citas en bloque son una pequeña parte de él, y que el lenguaje imparte información real de una manera fáctica neutral. Zubin todavía no ha intentado justificar ninguna de las etiquetas, simplemente ha declarado que es demasiado técnica y tiene información irrelevante, que *él siente* que es promocional, aunque no hay base para esta inferencia en el manual de estilo de Wikipedia ni en ningún otro lugar. Si aún así se abstiene de formular un argumento adecuado, entonces es un caso indiscutible para la reversión. K . Bog 02:42, 26 de agosto de 2018 (UTC) [ responder ]
Hmm, tenía la idea equivocada de que las etiquetas estaban allí antes de que Zubin12 editara esta página. Sin embargo, Zubin las agregó con https://en.wikipedia.org/w/index.php?title=Machine_Intelligence_Research_Institute&diff=prev&oldid=851150526. Con eso en mente, apoyaría ir a una etiqueta de POV único (ya que la neutralidad está claramente en disputa) hasta que un editor externo, que realmente tenga una opinión al respecto más allá de detener la guerra de ediciones, revise esta página, o los dos logren llegar a un acuerdo. Gbear605 ( discusión ) 02:52 26 ago 2018 (UTC) [ responder ]
Las etiquetas anteriores para cuestiones de tipo POV se utilizaban para problemas que se plantearon y resolvieron anteriormente. La versión actual del artículo tiene todas las ediciones de Jytdog, y la única disputa hasta ahora ha surgido de Zubin. K . Bog 03:03, 26 de agosto de 2018 (UTC) [ responder ]
1. Tiene una conexión de segundo orden bastante clara, y eso está bien. Por ejemplo, en el artículo sobre la Segunda Guerra Mundial , se menciona la guerra civil entre el KMT y los comunistas, porque tiene una conexión de segundo orden con la parte chino-japonesa del conflicto. Eso está incluido aunque técnicamente no se trate de la Segunda Guerra Mundial. En cuanto a este artículo, el hecho de que Musk respaldara los argumentos de Bostrom tiene una conexión de segundo orden bastante clara con el hecho de que pagó a gente para que los investigara.
2. Nos esforzamos por incluir en el artículo fuentes fiables y notables, es decir, artículos de medios de comunicación famosos que citan a personas respetadas y famosas. Qué teatralidad tan extraña es ésta, en la que las mismas defensas que existen para protegerse de los tábanos eliminadores se utilizan como pretexto para seguir persistiendo. Parece que, para usted, literalmente todo es motivo de combate: o no es lo suficientemente notable y hay que eliminarlo, o es demasiado notable y hay que exagerarlo; o es irrelevante, o es tan relevante que resulta superfluo, y así sucesivamente. En lugar de hacer esto, debería ceñirse a una aplicación directa y coherente de las políticas de Wikipedia.
3. Es bastante fácil de entender, especialmente en comparación con otros problemas técnicos (véase, por ejemplo, [1], que no me parece "fan-cruft"), así que no veo el problema. Es simplemente mi criterio como hablante nativo de inglés que sean lo más comprensibles posible sin perder detalles ni tono enciclopédico; si no estás de acuerdo, entonces propone una reescritura. Por lo que yo sé, nadie más ha encontrado que este artículo sea difícil de entender. Y así no es como funcionan las etiquetas: no son misiles que puedes disparar y olvidar, no puedes bombardear una página con etiquetas solo porque personalmente no estás de acuerdo con ella, están subordinadas al consenso de los editores en lugar de estar por encima de él. Si otros editores piensan que la página está bien, entonces debes mostrar cuál es el problema. K . Bog 02:34, 26 de agosto de 2018 (UTC) [ responder ]
1. No se trata de una conexión de segundo orden bastante clara, sino de una conexión de tercer orden tenue. La cadena de lógica entre las subvenciones y la publicación del libro consta de tres partes. Hay un interés claro en explicar los antecedentes de un conflicto que sentó las bases para la Segunda Guerra Mundial en Asia, algo que simplemente no está presente cuando se menciona el respaldo a un libro no afiliado. Por ejemplo, si el respaldo de Musk al libro provocó la fundación o la reforma del MIRI, entonces sería notable.
Esto es una discusión sin sentido, por favor, formula tu objeción en términos de WikiPolicy. Por ejemplo, si hay una WikiPolicy contra las conexiones de tercer orden, entonces apégate a ella. De lo contrario, no tiene sentido discutir sobre el número de pasos en la cadena de lógica. Estás dando por sentado que no hay un interés claro aquí: o introduces un argumento significativo o concedes el punto. K . Bog 03:15, 26 de agosto de 2018 (UTC) [ responder ]
WP:Synth prohíbe sacar conclusiones de dos fuentes que no estén explícitamente indicadas, a menos que encuentres una fuente que diga explícitamente que sin el respaldo de Musk al Libro, la subvención no habría sido aprobada o no se habría iniciado una discusión pública, lo que estaría prohibido por eso. Zubin12 ( discusión ) 03:29 26 ago 2018 (UTC) [ responder ]
En ningún lugar del artículo se afirma que Musk no hubiera otorgado la subvención sin el libro, por lo que esta queja es falsa. Si cree que hay un problema de OR, identifique una declaración en el artículo que constituya OR. Lo que hace el artículo es afirmar el respaldo de Musk a los argumentos de Bostrom justo antes de hablar sobre sus acciones para financiar un trabajo que está estrechamente relacionado con el libro de Bostrom. La relación entre estas cosas es banal, no sintética. K . Bog 03:42, 26 de agosto de 2018 (UTC) [ responder ]
¿Puedes ver el dilema de lo que dices? O bien su respaldo al libro no tiene relación con MIRI Grant, en cuyo caso no tiene relación con el artículo en cuestión y debería eliminarse, o bien sí tiene una relación que no se menciona en las fuentes, en cuyo caso mencionarlo es una violación de WP:Synth. Zubin12 ( discusión ) 03:57 26 ago 2018 (UTC) [ responder ]
Existe una relación que es banal y no sintética, a saber, que ambos tratan sobre la preocupación de Musk por el riesgo de la superinteligencia. Existe una diferencia entre la síntesis real y tomar dos cosas que son obviamente relevantes entre sí y escribirlas una al lado de la otra. K . Bog 04:07, 26 de agosto de 2018 (UTC) [ responder ]
, Pueden estar relacionados entre sí, pero uno de ellos no está relacionado con el tema del artículo. Digamos que el tema de un artículo es X, la subvención de Musk al MIRI es Y y su respaldo al libro es Z. X está conectado a Y e Y está conectado a Z, pero Z no está conectado a X y, por lo tanto, no debería incluirse a menos que haya una fuente que lo conecte directamente con el MIRI. Zubin12 ( discusión ) 04:28, 26 de agosto de 2018 (UTC) [ responder ]
No existen reglas de este tipo en Wikipedia, ni deberían existir. K . Bog 05:07, 26 de agosto de 2018 (UTC) [ responder ]
2. La página de historial infla una mención pasajera, convirtiéndola en una "Cita" y cita en bloque un artículo con una sola mención de la organización. No veo ninguna razón para incluirla en la sección de historial del artículo, ya que no parece haber tenido ningún efecto en la organización. Una fuente debe ser notable y relevante para merecer su inclusión; muchas de las fuentes utilizadas en el artículo no cumplen estos criterios.
Tienes razón en que hay una sola mención de la organización, pero de nuevo no veo el problema. Esa única mención es lo que se cita aquí, con una declaración previa para dar contexto. La referencia a Tegmark en este artículo deja clara la relación con el trabajo de MIRI, así que tal vez deberías leer eso primero. No has señalado cómo incluso una sola fuente aquí no es notable o no es relevante, excepto quizás por algunas de las otras cosas que estoy respondiendo aquí mismo. K . Bog 03:16, 26 de agosto de 2018 (UTC) [ responder ]
WP:Due, una sola referencia como ejemplo en un artículo exige, en el mejor de los casos, una mención pasajera, en lugar de una cita completa. A menos que el artículo del Huffington Post haya provocado cambios o un evento en el MIRI, no debería citarse en bloque, ya que estaría poniendo un énfasis indebido en un evento menor. Zubin12 ( discusión ) 03:29, 26 de agosto de 2018 (UTC) [ responder ]
El artículo habla extensamente sobre el tema de la seguridad de la IA, por lo que no es una mención pasajera. MIRI está escrito como uno de los pocos ejemplos del problema principal que plantea el artículo. El hecho de que solo mencione el nombre una vez no significa que sea la única parte relevante. Si tiene demasiado peso en relación con otras fuentes, agregue más detalles de esas otras fuentes. K . Bog 03:42, 26 de agosto de 2018 (UTC) [ responder ]
Este artículo trata sobre el MIRI, no sobre la seguridad de la IA. El artículo del Huffington Post mencionó al instituto MIRI como un ejemplo de organización que trabaja en este tema. Señale en qué otro lugar del artículo se menciona la idea formulada por el MIRI. Zubin12 ( discusión ) 03:57 26 ago 2018 (UTC) [ responder ]
Sí, y MIRI trabaja en la seguridad de la IA. El libro de Tegmark señala explícitamente que el artículo de HuffPo trataba sobre el problema de seguridad de la IA que Yudkowsky ayudó a plantear, por lo que no necesito explicar esa relación yo mismo. K . Bog 04:07, 26 de agosto de 2018 (UTC) [ responder ]
. Eso es Textbook WP:Synth, estás haciendo una conexión basada en 2 fuentes que no se mencionan en ellas. Zubin12 ( discusión ) 04:28 26 ago 2018 (UTC) [ responder ]
No estoy haciendo una conexión, los estoy escribiendo uno al lado del otro. Hay un cierto nivel básico de conexiones que siempre hacemos, por ejemplo, si la población de Finlandia era de 10 millones en un siglo y de 20 millones en el siguiente, podemos enunciar esos dos hechos uno al lado del otro sin tener una fuente que haga una conexión. De eso no se trata WP:Synth. K . Bog 05:04, 26 de agosto de 2018 (UTC) [ responder ]
3. El artículo del núcleo utiliza terminología estándar de la industria, puede que no sea comprensible para un profano, pero una persona con conocimientos básicos de informática podrá comprender de qué se trata. En comparación, este artículo está escrito de una manera que infla la escasa comprensión; eche un vistazo a esta línea "Su trabajo incluye formalizar la cooperación en el dilema del prisionero entre agentes de software "superracionales"[20] y definir una alternativa a la teoría de la decisión causal y la teoría de la decisión evidencial[21]", una línea casi incomprensible para cualquiera que no esté familiarizado con el MIRI. Abundan los problemas de estilo, los pronunciamientos se utilizan de forma inconstante y las estructuras de las oraciones se repiten constantemente. Zubin12 ( discusión ) 03:01, 26 de agosto de 2018 (UTC) [ responder ]
Todas esas palabras son estándar en la teoría de la decisión, como se puede descubrir con solo buscarlas en Google, y cualquiera con un conocimiento básico de la teoría de la decisión comprenderá de qué se trata. No veo ningún problema de estilo ni un uso "inconstante [sic]" de "Pronuncia [sic]", y no veo ninguna estructura de oración que se repita demasiado. Para ser franco, no pareces ser un hablante nativo de inglés, tu propia biografía indica que eres de Singapur y que estás en Wikipedia para mejorar tu gramática y ortografía, y tu escritura aquí tiene muchos errores. Si bien es admirable que hagas tanto esfuerzo y aprendas, debes comprender nuestro escepticismo con respecto a tus percepciones de lo que es o no es un buen estilo en inglés. K . Bog 03:15, 26 de agosto de 2018 (UTC) [ responder ]
Soy un hablante nativo de inglés, mi gramática y ortografía son horribles, así que estoy tratando de mejorarlas escribiendo más. Es un poco chovinista pensar que solo los hablantes de una segunda lengua querrían mejorar sus habilidades lingüísticas. La frase "investigación MIRI" se usa 3 veces en un solo párrafo y las estructuras de las oraciones son demasiado complicadas. Para su información, el inglés es el segundo idioma más común en Singapur junto con nuestra lingua franca, así que no haga suposiciones basadas en información parcial. Zubin12 ( discusión ) 03:29, 26 de agosto de 2018 (UTC) [ responder ]
Ya sea por una cuestión de lengua materna o simplemente por falta de familiaridad con la teoría de la decisión, es evidente que no conoce el lenguaje del que está hablando aquí: con enlaces azules, podemos escribir "su trabajo incluye la formalización de la cooperación en el dilema del prisionero entre agentes de software " superracionales " [20] y la definición de una alternativa a la teoría de la decisión causal y la teoría de la decisión evidencial ", y en estos artículos podemos ver que estos términos se utilizan en todo tipo de lugares además de MIRI. En cuanto a la reutilización de la misma frase, o tener estructuras de oraciones "demasiado complicadas": nuevamente, estos parecen ser problemas totalmente irrelevantes; no veo nada de eso en ningún grado problemático. La mera repetición de una frase no me molesta. Pero si desea solucionar estos problemas sin eliminar ningún detalle, hágalo. Por ejemplo, puede reemplazar "investigación de MIRI" con "trabajo en MIRI" u otras frases similares, y así sucesivamente. De cualquier manera, no tiene nada que ver con el punto de vista, el promocionismo o cualquier etiqueta de mantenimiento de ese tipo. Por cierto, también te equivocas con el artículo de Kernel: muchos estudiantes de informática no tienen idea de qué es una matriz definida positiva, qué es una matriz de Gram y otras cosas. K . Bog 03:42, 26 de agosto de 2018 (UTC) [ responder ]
Di un ejemplo antes de la repetición de una sola frase en un párrafo, de todos modos este era otro problema con el artículo. Mis otros dos puntos tratan sobre el problema del punto de vista no verbal presente en el artículo. Otras personas han comentado anteriormente sobre el problema de estilo en el artículo, que ha permanecido sin resolver incluso si la discusión ha quedado inactiva. De todos modos, WP:Otherstuff existe hace que esa línea de argumentación sea espuria. Zubin12 ( discusión ) 03:57, 26 de agosto de 2018 (UTC) [ responder ]
El artículo ha sido revisado sustancialmente desde la mayoría de los comentarios aquí. No veo ningún comentario reciente sobre el estilo aparte del de Jytdog, pero parece que se han incluido todos sus cambios estilísticos. Así que parece que eres tú el único. Esto no es "cosas ajenas", es una apelación al sentido común y a las buenas prácticas. K . Bog 04:07, 26 de agosto de 2018 (UTC) [ responder ]
@David Gerad: parece estar de acuerdo en que mis cambios deben mantenerse. Parece que la discusión no va a ninguna parte y es poco probable que podamos convencernos mutuamente o llegar a un acuerdo en la discusión actual. Voy a tomarme la libertad de preguntarles a otros editores del artículo qué opinan sobre nuestra disputa. ¿Qué piensan ustedes? @ Gbear605 , David Gerard y Jytdog : Por favor, envíen un mensaje a cualquier otro editor que crean que pueda ayudar a resolver esta disputa. Zubin12 ( discusión ) 04:28 26 ago 2018 (UTC) [ responder ]

Sí, hay un montón de cosas que no tienen nada que ver con el tema y que, además, provienen de fuentes inapropiadas. Incluida la parte que estás comentando. Jytdog ( discusión ) 04:29 26 ago 2018 (UTC) [ responder ]

Zubin12 , estoy de acuerdo en que parece que no podrán llegar a un acuerdo. No estoy seguro de cuál es la solución correcta, pero definitivamente estoy de acuerdo en que es necesario llamar a otros a participar. Gbear605 ( discusión ) 04:30 26 ago 2018 (UTC) [ responder ]
Gbear605 , Kbog ¿Se debería iniciar una RFC formal? Zubin12 ( discusión ) 04:35 26 ago 2018 (UTC) [ responder ]
Sí, he hecho uno. K . Bog 05:35, 26 de agosto de 2018 (UTC) [ responder ]
Combiné mis cambios con los tuyos y supuse que eras cómplice de algo a lo que no te habías opuesto. Vi que no te convencían las fuentes primarias, pero estaban en la sección de "investigación", no en la sección de "historia" en disputa, y eran un problema de fuentes más que un problema de punto de vista. Ciertamente no quise tergiversar tu posición, pero claro, fue un descuido de mi parte. K . Bog 02:43, 27 de agosto de 2018 (UTC) [ responder ]
Ya sabes lo que dicen sobre "asumir"... Jytdog ( discusión ) 02:54 27 ago 2018 (UTC) [ responder ]
Por favor, mantengan la discusión centrada en el tema y sean productivas. Gracias. K . Bog 05:47, 27 de agosto de 2018 (UTC) [ responder ]

Fuentes primarias

Como se ha dicho repetidamente arriba, las fuentes primarias en este artículo cumplen con los estándares en WP:PSTS , y son una minoría de las fuentes que se usan en el artículo. La única persona aquí que ha planteado un problema con el uso de fuentes primarias aquí es Jytdog. Jytdog, quizás no estés familiarizado con cómo se escriben normalmente los artículos sobre temas académicos en Wikipedia: los artículos publicados son estándar y comprenden la mayor parte de la información confiable sobre un tema. Véase, para elegir un ejemplo arbitrario, Kantian ethics , que ha sido etiquetado como un "buen artículo", a pesar de citar al propio Kant numerosas veces y citar a otras personas por sus propias opiniones. Es inapropiado poner una plantilla de mantenimiento en la página cuando estos puntos se han planteado repetidamente sin ser respondidos. K . Bog 04:24, 26 de agosto de 2018 (UTC) [ responder ]

Lo has dicho en repetidas ocasiones. Tu uso de fuentes primarias no es adecuado, como yo y las otras dos personas estamos tratando de explicarte. No estás escuchando. Jytdog ( discusión ) 04:27 26 ago 2018 (UTC) [ responder ]
He dicho claramente que es apropiado y no has respondido. En ningún lado ni tú ni nadie más ha señalado un problema real con las fuentes primarias que se encuentran actualmente en el artículo. Los comentarios de Zubin se refieren a una fuente secundaria, el artículo de HuffPo. Nadie más ha señalado ningún problema con la versión reciente del artículo desde que se revisaron las fuentes. Lo único que has dicho sobre este asunto es que los artículos son de congresos, pero como ya he explicado, es normal que se publiquen artículos sobre informática en congresos. Ahora estás recurriendo a la negación rotunda. Lo siento, pero si no das un argumento sólido, entonces no puedes asumir que la gente "no está escuchando" cuando todavía no está de acuerdo. K . Bog 04:41, 26 de agosto de 2018 (UTC) [ responder ]
Kbog, hasta ahora la discusión en esta página de discusión es tú contra todos los demás - David Gerard ( discusión ) 10:32 26 ago 2018 (UTC) [ responder ]
El comentario sobre Musk es exagerado, y las citas sobre Future of Life Institute literalmente no mencionan Future of Life. Eliminado - David Gerard ( discusión ) 13:08, 26 de agosto de 2018 (UTC) [ responder ]
y la cita del libro... resultó ser una afirmación de Tegmark en su función en FLI de que su programa había fomentado más subvenciones. He cambiado la mención para señalar que se trata de una afirmación de primera persona, no de ningún tipo de afirmación fáctica verificada por un tercero. También es literalmente la única mención de MIRI en el libro. Lo he dejado por ahora, pero realmente, sin algo que sea al menos una fuente RS de terceros, esta afirmación no tiene respaldo y no debería estar aquí - David Gerard ( discusión ) 13:16, 26 de agosto de 2018 (UTC) [ responder ]
En realidad, ni siquiera respalda la afirmación: la cita (que, como señalo, es literalmente la única mención de MIRI en Life 3.0 ) dice: "Las nuevas e importantes donaciones para la seguridad de la IA permitieron ampliar la investigación en nuestras organizaciones hermanas sin fines de lucro más grandes: el Machine Intelligence Research Institute en Berkeley, el Future of Humanity Institute en Oxford y el Centre for the Study of Existential Risk en Cambridge (Reino Unido)". Eso no respalda la afirmación que se hace en el texto: es una cita falsa. Eliminando la afirmación - David Gerard ( discusión ) 13:41, 26 de agosto de 2018 (UTC) [ responder ]
La otra afirmación citada sobre Life 3.0 es:
En el otoño de 2014, el libro de Nick Bostrom Superinteligencia: caminos, peligros, estrategias[9] ayudó a generar un debate público sobre el trabajo de investigadores como Yudkowsky sobre el riesgo de una inteligencia artificial general insegura.
Además de la única mención de MIRI que no apoya esta afirmación, el libro menciona a Yudkowsky precisamente una vez, en una nota a pie de página:

Eliezer Yudkowsky ha hablado de alinear los objetivos de la IA amigable no con nuestros objetivos actuales, sino con nuestra volición extrapolada coherente (CEV). En términos generales, esto se define como lo que una versión idealizada de nosotros querría si supiéramos más, pensáramos más rápido y fuéramos más las personas que desearíamos ser. Yudkowsky comenzó a criticar la CEV poco después de publicarla en 2004 (http://intelligence.org/files/CEV.pdf), tanto por ser difícil de implementar como porque no está claro si convergería hacia algo bien definido.

Esta oración no pasa la verificación y la referencia citada es irrelevante para MIRI y no debería estar en este artículo. La he marcado como que no pasa la verificación por ahora, pero realmente necesita una cita de RS de terceros que se verifique - David Gerard ( discusión ) 13:48, 26 de agosto de 2018 (UTC) [ responder ]
Sure, there are three editors who have axes to grind here, with thoroughly unconvincing objections. I haven't seen any level-headed, independent person to side against me.
The Musk bit uses "neutral tone and the provision of factual information, cited to a reliable source", not "praise-filled (nor criticism-filled) adjectives appended to the subject's name", per the essay on WikiPuffery. The sources on Musk are reliable and published. It's easy to find independent published sources to back up Musk's grant: [[2]]
The claim that "This initiative and the publicity around it spurred further donations" is Jytdog's not mine, and I had already felt that it was not quite right. The claim that Musk's donation led to expansion is directly supported by the text.
You are misreading the book: it also mentions Yudkowsky 11% of the way through, shortly prior to the MIRI mention, right before discussing the impact of Bostrom's book, the Hawking op ed, and the Musk grant in mainstreaming the general topic.
So, clearly, it is relevant. K.Bog 16:42, 26 August 2018 (UTC)[reply]
It really isn't. I literally have the book in front of me. It doesn't support the claims you're trying to make from it. I have quoted why it doesn't - you need to quote why it does. As I noted, that is literally the only mention of Yudkowsky.
And "who have axes to grind here" - this is a discussion of bad referencing, making extensive reference to and quotation of the source material. If you take that as grounds to make personal attacks, that's not a problem with the rest of us - David Gerard (talk) 23:33, 26 August 2018 (UTC)[reply]
One mention is enough, I have already referenced the way in which it does (just read ahead through the mention of him and the mention of the book), and answered your points. If I'm right, then clearly this is not bad referencing. Sure, maybe I'm wrong. But that's the real issue here, and telling me that I'm a "fan" or whatever is not answering it. K.Bog 05:24, 27 August 2018 (UTC)[reply]
Again I was fixing the severe very basic problems with the paragraph, not dealing with the larger issues of WEIGHT etc. The paragraph as I left it is completely supported by the source at the pages noted. DavidGerard if you look at pages 326 into 327 (327 is where the MIRI sentence is) you will see that 326 wraps up the 3rd mainstreaming step (the big Puerto Rico meeting and research priorities definition, and Musk's $10M of funding, and all the media attention) and then begins "The fourth mainstreaming step happened organically over the next two years, with scores of technical publications and dozens of workshops on AI safety....Persistent people had tried for many years to engage the AI community in safety research, with limited success, but now things really took off. Many of these publications were funded by our grants program...." and then down a bit, the paragraph on growth and more donations, including to MIRI. The content I had generated was summarizing what Tegmark wrote and is verified. I do agree with trimming it as UNDUE; I was not addressing these other issues, just the severe ones. This is not about primary sources, so doesn't really belong in this paragraph. The issues with primary sources and SPS remain very acute. Jytdog (talk) 02:04, 27 August 2018 (UTC)[reply]

Request for comment on NPOV and sourcing

The following discussion is closed. Please do not modify it. Subsequent comments should be made on the appropriate discussion page. No further edits should be made to this discussion.


The points of dispute are: (a) whether to remove the statement that Musk "had previously endorsed Bostrom's arguments,[11][12]" (b) whether to preserve the NPOV maintenance tag, (c) whether to preserve the primary source maintenance tag, and (d) whether the language is too technical. K.Bog 05:13, 26 August 2018 (UTC)[reply]

My view on this topic should be obvious, The tag's should be preserved for the reasons I articulated in the earlier, The musk references should be removed and the reliance on primary sources create both stylistic and content problems. Zubin12 (talk) 23:57, 26 August 2018 (UTC)[reply]
Nope. ᛗᛁᛟᛚᚾᛁᚱPants Tell me all about it. 20:36, 27 August 2018 (UTC)[reply]

*Comment - I just got called here by Legobot, it looks like this RfC is redundant due to changes to the article - there is no reference to Musk in the article (except for his inclusion in the list of 'People'), there are no maintenance tags, and there's no obviously over-technical language. Suggest closing this RfC to avoid wasting people's time if the discussion has moved on. GirthSummit (blether) 07:42, 4 September 2018 (UTC)[reply]

Notes

Given the radical changes in the page is the RFC not a bit reduant at this point ?Zubin12 (talk) 08:47, 28 August 2018 (UTC)[reply]
I'm not sure that folks who preferred the prior version have really consented; i think they are being patient to see what the RfC brings. Jytdog (talk) 02:14, 29 August 2018 (UTC)[reply]
The discussion above is closed. Please do not modify it. Subsequent comments should be made on the appropriate discussion page. No further edits should be made to this discussion.

Decent

The page like this would be much better. I don't have time to find more sources now so there may be key things I missed. But this tells the story, using primary sources only as needed in order to do that, and is driven as much as possible by independent, secondary sources. I removed all the overblown content based on passing mentions. Jytdog (talk) 01:54, 28 August 2018 (UTC)[reply]

A few comments:
The new, shorter lead is better. Phrases such as has been named as one of several academic and nonprofit groups are too wordy for the lead.
I don't see any reason to describe Yudkowsky as who was mostly self-educated. It reads as a bad attempt to smear him.
Removing the blockquotes is an improvement; they might be reasonable in an article in friendly artificial intelligence but are excessive here.
I have no opinion on whether the stand-alone list of works (in Bibliography form) is better than describing them in prose form.
I would keep the LessWrong navbox (though that might need to be re-named) but links in that box don't need to be repeated in the "See also" section.
power~enwiki (π, ν) 03:16, 28 August 2018 (UTC)[reply]
Attempt to smear? No. It is from the FLI source, which is quite friendly to him. Please explain what sourced content in the page justifies keeping the LessWrong navbox. Thanks. Jytdog (talk) 03:59, 28 August 2018 (UTC)[reply]
The fact that it largely run by the same people as the Center for Applied Rationality. power~enwiki (π, ν) 04:18, 28 August 2018 (UTC)[reply]
Founded by the same guy! Hm. I actually looked for good sources connecting MIRI/CFR etc and didn't find any; we should only bring back the navbox if we have some decently-sourced content that makes sense of it being here. Jytdog (talk) 19:15, 28 August 2018 (UTC)[reply]
Many improvements but also some problems; various issues and proposed changes are listed below. With them, the article will be an improvement over the current version.
The lead overweights the 2000-2005 goal to "accelerate the development of artificial intelligence" which is only supported by a single source, which is a few sentences on an FLI blog, as the far more widely reported emphasis on risk is only given the same lead weight (MOS:LEADREL),
The FLI blog, while a weak source, is the only source that provides a complete overview. The turn from accelerating to managing the risks is remarkable, with respect to the organization (any organization that did such a flip) and is lead-worthy. Jytdog (talk) 16:11, 28 August 2018 (UTC)[reply]
"managing the risks of AI, mostly focused on a friendly AI approach" is vague (what is the "friendly AI approach"? it's not commonly known parlance, which is important for the intro) and somewhat redundant. The article should use the term future to reflect the emphasis among secondary sources in referring to artificial general intelligence, future artificial intelligence, superintelligence, long-run impact, and so on. "Ensuring safety" is more specific language because it narrows away the ideas of preventing AI entirely or defending people from AI, the latter being things that are not in the sources,
Therefore it should be, "The Machine Intelligence Research Institute (MIRI), formerly the Singularity Institute for Artificial Intelligence (SIAI), is a non-profit organization founded in 2000 by Eliezer Yudkowsky. MIRI's work focuses on ensuring the safety of future AI technology." K.Bog 04:26, 28 August 2018 (UTC)[reply]
Some of that is useful - yes it is about AI of the future. Did some tweaks to the lead and body. Jytdog (talk) 16:11, 28 August 2018 (UTC)[reply]
The "extropian" reference is only supported by the passing mention of "its primary founder" being "a former member of the Extropian discussion group", and the source doesn't clarify whether this really was prior to the 2000 founding or if it was actually sometime in 2000-2005, so it should be removed. K.Bog 04:26, 28 August 2018 (UTC)[reply]
This is again, part of the history of MIRI; three two refs (FT , FLI, and New Yorker) all mention this. In general the article said far too little about the relationship between MIRI and transhumanism; the article was obviously written by people in that bubble who assume everybody knows all the ins and outs and history of that community. (A lot of pages related to transhumanism are in-bubble fancruft and are no longer and probably never were Wikipedia articles; you and I have encountered these issues before.) Jytdog (talk) 16:11, 28 August 2018 (UTC) (redact Jytdog (talk) 17:51, 28 August 2018 (UTC))[reply]
I'm not referring to other "pages related to transhumanism." FLI does not mention the Extropian group. At least FT does (missed it on initial read through) so it is supported.K.Bog 16:53, 28 August 2018 (UTC)[reply]
Yes I made a mistake and have redacted. My apologies. Jytdog (talk) 17:51, 28 August 2018 (UTC)[reply]
The sale of the web domain and name is ancillary detail that has relatively little weight in the SU press release; rewrite as "...the institute sold the Singularity Summit to Singularity University[7] and the next month changed its name to "Machine Intelligence Research Institute".[8] K.Bog 04:26, 28 August 2018 (UTC)[reply]
It is why they changed their name; they no longer owned it -- what the article said before was some bullshit. Jytdog (talk) 16:11, 28 August 2018 (UTC)[reply]
"What the article said before" is explicitly mentioned in the release; in any case, I'm referring to the wording of this version: it shouldn't overweight organizational minutiae from a press release. Of course, if they changed their name, they will no longer have the old name and website. That much is implied. It's crufty detail. K.Bog 16:52, 28 August 2018 (UTC)[reply]
The term "crackpot" is not used to refer to SI or Yudkowsky or their general viewpoint in the FT source; instead, we should stick to the language of Tegmark and write "shift from something that was once ignored to the mainstream". K.Bog 04:26, 28 August 2018 (UTC)[reply]
Every independent source talks about how most of the AI community viewed this stuff as crackpart alarmism, and how this changed around 2014 to 2015. The Life 3.0 book talks about the "mainstreaming" of concern about the risks of AI -- in other words, it was not mainstream before. That is from a person on the inside. Jytdog (talk) 16:11, 28 August 2018 (UTC)[reply]
Sources describe "this stuff" in varying degrees from being ignored, met with skepticism, divisive, etc to being "crackpot" (at the time). The latter is stronger, less commonly mentioned, and simply not supported by the ref. K.Bog 16:52, 28 August 2018 (UTC)[reply]
Also, if that sentence is going to refer to "this stuff" rather than MIRI/Yudkowsky in particular, then it should be revised to reflect the Tegmark source, which mentions a variety of things (the Hawking/Russell op ed, the Bostrom book, etc) with equal weight to the conference. The current version overweights the role of the FLI conference, it doesn't mention the other events that led to mainstreaming. Kbog (talk) 17:11, 28 August 2018 (UTC)[reply]
Yes that is good. I have tightened it to remove that UNDUE weight. Jytdog (talk) 17:48, 28 August 2018 (UTC)[reply]
OK, but if there are other secondary sources describing the same trend of mainstreaming (even if they don't mention MIRI explicitly) then that bit should be expanded with more detail. Kbog (talk) 19:47, 28 August 2018 (UTC)[reply]
Pending a clear answer from the RFC, the research section should preserve most of the content from my last version. You've stated that some of it is "not research but beliefs and the like", but that's okay if the section is titled "Research and approach". You've stated that some of it is primary sources, but per WP:Scholarship, "Material such as an article, book, monograph, or research paper that has been vetted by the scholarly community is regarded as reliable, where the material has been published in reputable peer-reviewed sources or by well-regarded academic presses," and AAAI, Oxford and Springer are all reputable, vetted academic presses. And none of the issues on WP:Primary are being violated. The primary sources are clearly not being used as the basis for the whole section, they are filling in the gaps of scholarly work that isn't simple or popular enough to be mentioned in websites/magazines/etc. Without them, the article gives undue weight to forecasting while the core issue that all the sources are mentioning - designing systems and mechanisms to be safe/ethical - is not described in any detail whatsoever. You also removed some other independent secondary sources for no apparent reason other condensing it, which is not justified: the section should give due weight to all reliable sources. As for the FLI research priorities document, it's being used to talk about Soares' work and the citation indicates that it is his work at MIRI, and the research priorities document is not being used alone. The Russell quote can be paraphrased. K.Bog 04:26, 28 August 2018 (UTC)[reply]
Yeah I decided that something about assumptions/goals was useful in the next diff and kept ~some~ of that, hence the change in the section header and retention of some of that in the next diff. Jytdog (talk) 16:11, 28 August 2018 (UTC)[reply]
Most of it was removed. It should be in prose form rather than further reading. Per MOS:EMBED, an article should not use a list if the material can be read easily as plain paragraphs. K.Bog 16:52, 28 August 2018 (UTC)[reply]
We do not build up mini literature reviews from primary scientific sources here. Not what we do. Jytdog (talk) 17:46, 28 August 2018 (UTC)[reply]
That's (a) not what I'm referring to (the section had a mix of sources), and (b) not supported by the P&G. Kbog (talk) 18:19, 28 August 2018 (UTC)[reply]
This is where aiming at the wrong thing comes in; we look to provide accepted knowledge and have that driven by independent, secondary sources (filling in around that with primary sources, carefully, not freely or abundantly). This is what all the P&G point to, as I summarize on my user page at User:Jytdog#NPOV_part_1:_secondary_sources - see particularly the three bullet points near the bottom. Following this is how we keep pages from falling into fancruft with excessive detail and overstating the importance of the subject. Jytdog (talk) 18:40, 28 August 2018 (UTC)[reply]
Problems with your interpretation of "what all the P&G point to" include: secondary sources still reflect the views of the writer/publisher rather than being universally accepted; they must still be interpreted and judged for importance and relevance, there is a major difference between going "up the institutional ladder" and going from primary to secondary sources, and properly attributed statements are reliable (it is accepted knowledge that "Joe says X", even if "X" is not accepted knowledge). As I've pointed out, the explicit policies on sourcing seem to support a substantially more balanced approach.
In any case, this is filling in gaps that are left by secondary sources, not "building whole sections". A large number of secondary sources here have mentioned "making AI safe", "mechanisms to keep AI safe," "giving AI ethical goals," and so on, lending a high degree of notability to the subject, but none have described it in any more detail than that. Kbog (talk) 19:05, 28 August 2018 (UTC)[reply]
Adding content about their research, sourced from their own papers, is not filling in gaps. It is adding overly detailed fancruft; this is exactly the clash in the views of what the mission of WP is. An article, the content of which is driven mostly by primary sources and passing mentions, is not decent and not aiming at the mission- it will invariably fail NPOV by giving UNDUE weight to things. Jytdog (talk) 19:08, 28 August 2018 (UTC)[reply]
It's a minority of the article, I don't see it as "overly detailed fancruft", and I have just described how it is the only way to give due weight to things here (in the absence of secondary sources with detail on the same thing). Per WP:DUE, "Neutrality requires that each article or other page in the mainspace fairly represent all significant viewpoints that have been published by reliable sources, in proportion to the prominence of each viewpoint in the published, reliable sources"; it does not say secondary published, reliable sources. So if you only use secondary sources, you may give undue weight to things. Plus, it is strange that you are okay with filling in gaps via blogs and press releases, but not with scholarly publications. Kbog (talk) 19:24, 28 August 2018 (UTC)[reply]
Yes clearly this is a clash in views on the mission, but it's the kind of clash that requires compromise or RFC or 3OP (or, maybe, a new policy set through the proper channels), not something that can be asserted. Kbog (talk) 19:34, 28 August 2018 (UTC)[reply]

Notability

is very marginal. Lots of passing mentions but I had to resort to an in-bubble blog at FLI to get even one source focused on MIRI and its story. I found no others. Plenty of passing mentions but I don't believe this passes WP:ORGCRIT since we revised it. Jytdog (talk) 04:03, 28 August 2018 (UTC)[reply]

Jytdog, here are five articles that talk about MIRI that pass the primary criteria: https://www.npr.org/2011/01/11/132840775/The-Singularity-Humanitys-Last-Invention (not used in WP article), https://www.ft.com/content/abc942cc-5fb3-11e4-8c27-00144feabdc0 (used in WP article), https://www.analyticsindiamag.com/top-non-profit-artificial-intelligence-machine-learning-institutes-that-are-working-on-making-ai-safe/ (not used in WP article), https://news.bitcoin.com/66-funding-stop-ai-apocalypse-comes-crypto-donors/ (not used in WP article), http://www.slate.com/articles/technology/future_tense/2016/04/will_artificial_intelligence_kill_us_all_an_explainer.html (not used in WP article). These all have significant coverage, although it is only the primary focus of the first two. Gbear605 (talk) 04:39, 28 August 2018 (UTC)[reply]
Some of those are in Jytdog's version of the article, but his version also cuts some sources out. In any case, the page has been nominated for deletion twice already, and the motion failed both times. K.Bog 04:43, 28 August 2018 (UTC)[reply]
Both AfDs were sparsely attended and weakly argued, and more importantly, were before we revised WP:ORGCRIT. Yes I forgot the NPR one (which is used). The Slate piece has just a paragraph, ditto the AnalyticaIndia listicle. The Bitcoin ref is churnalism unsurprisingly hyping bitcoin (unremarkably skewing the contents of the underlying press release/blogpost) to ignore the donations in Ethereum, and plagiarizing it in a couple of spots. Jytdog (talk) 13:18, 28 August 2018 (UTC)[reply]

Singularitarianism

some merging might be in order? Jytdog (talk) 04:04, 28 August 2018 (UTC)[reply]

Nah, it would be weird to conflate a niche think-tank/research centre with a broader movement.Zubin12 (talk) 08:45, 28 August 2018 (UTC)[reply]

Irrelevant promotion of Yudkowsky in first sentence?

An anonymous editor removed what he termed "fluff" regarding the first sentence, which included (regarding Yudkowsky) "who was mostly self-educated and had been involved in the Extropian group,"- I'm inclined to agree that this is "fluff"; indeed, it seems to veer into promotion of the individual in question. I've reverted the edit in question so that this content is removed. I'm open to the idea that either of these bits of biographical information are relevant to this particular article, but frankly, this seems far-fetched. It's enough to mention his name in the lead, along with the brief relevant historical information in the first section (which seems perfectly appropriate). Also I think it's crucially important to point out that articles about organizations and individuals as contentious as this one are especially at risk of preferential editing by fans of the personalities and ideas involved. Global Cerebral Ischemia (talk) 21:15, 17 March 2019 (UTC)[reply]

I tend to agree, this might belongs to Yudkowsky's BLP page or in a relevant context in this article, if this piece of information is essential to encyclopedic content about MIRI, but not otherwise. --Btcgeek (talk) 22:26, 17 March 2019 (UTC)[reply]

GiveWell and OpenPhil evaluations

As of two days ago, the article ended with this section:

In 2016 GiveWell, a charity assessment organization based on the effective altruism concept, did an extensive review of MIRI's research papers, and concluded that "MIRI has made relatively limited progress on the Agent Foundations research agenda so far, and this research agenda has little potential to decrease potential risks from advanced AI in comparison with other research directions that we would consider supporting".[1]

I added the following section:

Subsequently the Open Philanthropy Project, a charity evaluator spun off from Givewell, evaluated MIRI more positively in 2017. They awarded MIRI a grant for $3.75m, supporting roughly half MIRI's budget. While acknowledging that MIRI was very hard to evaluate, they wrote that "The case for the statement “MIRI’s research has a nontrivial chance of turning out to be extremely valuable (when taking into account how different it is from other research on AI safety)” appears much more robust than it did before".[2]

The second section seems to me to be just as relevant as the first - they both concern evaluations by (essentially) the same organisation, one year apart. Perhaps a slight claim could be made that the second one is slightly more relevant, as it is more recent.

David Gerald reverted my edit, citing primary sourcing. However, if true this would disqualify both paragraphs, as both use basically the same source. I think both contain useful information, so would prefer both to stay, rather than neither. Furthermore, according to USEPRIMARY, "Sometimes, a primary source is even the best possible source, such as when you are supporting a direct quotation." When I reverted him and pointed this out, David reverted my edit for a second time, citing "rv promotional edit". I'm not sure what exactly he means by this. I haven't been paid by MIRI, for example. It's true that the second paragraph paints MIRI in a slightly better light than the first one, but this is because the opinion of the charity assessment organization improved. Presumably it is not the case that adding any positive content at all is forbidden?

As such I am going to re-add the section, though I welcome David's comments. 69.141.26.148 (talk) 15:53, 24 March 2019 (UTC)[reply]

The wording seems misleading to me based on the source. The first part of the quote, "While the balance of our technical advisors’ opinions and arguments still leaves us skeptical of the value of MIRI’s research..." is not included. It seems that a note regarding the fact that Open Philanthropy Project funded MIRI is worth including, but the language used above is unnecessarily promotional. The primary source quoted seems to be quite nuanced. The addition either needs to add that nuance, or just make a note of the facts, i.e. they're granting $3.75 million over 3 years. Although a secondary source would be nice, it is understandable that it might be hard to produce. As such, a promotional edit doesn't necessarily mean a COI. For articles like these, it is important to observe WP:NPOV. --Btcgeek (talk) 17:50, 24 March 2019 (UTC)[reply]
How about something like the following? I think the sentence flow is a little more awkward now, but it captures the additional section you pointed to. 69.141.26.148 (talk) 01:09, 26 March 2019 (UTC)[reply]
Subsequently the Open Philanthropy Project, a charity evaluator spun off from Givewell, evaluated MIRI more positively in 2017. They awarded MIRI a grant for $3.75m, supporting roughly half MIRI's budget, writing that "[w]hile the balance of our technical advisors’ opinions and arguments still leaves us skeptical of the value of MIRI’s research, the case for the statement “MIRI’s research has a nontrivial chance of turning out to be extremely valuable (when taking into account how different it is from other research on AI safety)” appears much more robust than it did before".[2]
I suggest removing the "evaluated MIRI more positively in 2017" part. The source doesn't actually say that. They say they remain skeptical, but there are these 2 reasons why they increased their funding. It would also be nice to note that the grant of $3.75m is over 3 years - as it reads now, it seems like a one-time grant, but it isn't. Here's a slight edit of what David Gerard noted above as my suggestion - --Btcgeek (talk) 01:39, 26 March 2019 (UTC)[reply]
Subsequently the Open Philanthropy Project, a charity evaluator spun off from Givewell, awarded MIRI a grant for $3.75m over 3 years, supporting roughly half MIRI's budget, writing that "[w]hile the balance of our technical advisors’ opinions and arguments still leaves us skeptical of the value of MIRI’s research, the case for the statement “MIRI’s research has a nontrivial chance of turning out to be extremely valuable (when taking into account how different it is from other research on AI safety)” appears much more robust than it did before".[2]
Seems not unreasonable to me. I'll add it to the article. Thanks! 69.141.26.148 (talk) 22:59, 28 March 2019 (UTC)[reply]
I disagree - you still don't have any reliable third-party sourcing that anyone in the real world has even noticed this. Please find a third-party Reliable Source, not a self-source. Surely this isn't hard, if this is worth even noting here. Else it's just promotional - David Gerard (talk) 06:47, 29 March 2019 (UTC)[reply]
David Gerard, I agree that it should have a third-party source. However, the preceding information about the Open Philanthropy Project, which you seem to wish to keep in, is also a primary source. I suggest that either both are included (since they are simply coverage from the same source, a year apart), a combination of the two is kept in, or neither is kept in. Gbear605 (talk) 14:22, 29 March 2019 (UTC)[reply]
I would remove both, if there's no evidence of third-party coverage in reliable sources. Is there? - David Gerard (talk) 19:07, 29 March 2019 (UTC)[reply]
I do not support its removal. WP:PRIMARY mentions cases where primary sources can be used. There is no requirement in Wikipedia per se that everything needs a secondary source. The use here of primary source seems to have been done carefully and free of interpretation, which generally requires a secondary source. I don't support the entire deletion of material that seemed to add value to the article, giving a context of the work done by this organization. — Preceding unsigned comment added by Btcgeek (talk • contribs) 21:47, 29 March 2019 (UTC)[reply]
You're still supplying absolutely no evidence that this is in any way a noteworthy fact, and that putting it here would be anything functionally other than advertising. Let me repeat again: Do you have third-party coverage in Reliable Sources? This is a pretty simple question, with a yes or no answer - David Gerard (talk) 11:23, 31 March 2019 (UTC)[reply]
Please read WP:PRIMARY to understand how primary sources are used in Wikipedia, as mentioned to you previously.--Btcgeek (talk) 01:44, 1 April 2019 (UTC)[reply]
So that'll be "no, I have no evidence that any third party anywhere has noted this at all"? Then it's just promotional fluff about MIRI - David Gerard (talk) 07:42, 1 April 2019 (UTC)[reply]
You're causing disruptive edits to the article without seeking consensus. I've provided you with the right Wikipedia policies to go through already regarding primary sources. The material you deleted was relevant to the article and accurate based on the sources. It didn't show MIRI in the best light, but that's ok and not the purpose of the Wikipedia article. Things like funding sources and independent evaluations are very important for projects that seem "out there" as there is potential for misrepresentation and fluff. Wikipedia tries to provide a holistic view of the organization, not just things that are promotional in nature. You still haven't provided any reason for the removal of this material other than saying you couldn't find secondary sources. It is pretty obvious that the material you removed ins't "promotional fluff" and is in fact the opposite - citing questions about their research and healthy skepticism that you somehow want to keep out of the article. Do you have a COI here? --Btcgeek (talk) 19:55, 1 April 2019 (UTC)[reply]
David Gerard is an admin for RationalWiki, which has a one-sided negative view toward MIRI, which can be seen in its pages on Eliezer Yudkowsky and LessWrong. He seems to very much not be a neutral party on this issue. Gbear605 (talk) 20:12, 1 April 2019 (UTC)[reply]
This sort of thing is normally considered a violation of WP:AGF and WP:NPA. Rather than attempting personal attacks upon other Wikipedia editors, I urge you to address the sourcing problems. In particular - do you have third-party reliable source coverage? If you can bring such, it will be a slam-dunk argument in favour of keeping the material - David Gerard (talk) 21:51, 1 April 2019 (UTC)[reply]
"You're causing disruptive edits to the article without seeking consensus." I am seeking consensus, which is why I'm here. But - and this is important - a talk page can't agree on its own to contradict fundamental sourcing rules of Wikipedia.
The reason for the removal is what I've said more than a few times - it's entirely self-sourced puffery, which appears to have zero third-party reliable sources coverage. I've said this a number of times; your claim "You still haven't provided any reason" is clearly factually false, and it's an assertion you should reread this page before making.
Do you have third-party, verifiable, reliable source coverage for the claim? Yes or no? This is a simple question, and you've yet to answer it. I must note yet again - if you can find such coverage, it will be a slam dunk case for it to be included in the article - David Gerard (talk) 21:51, 1 April 2019 (UTC)[reply]
This is what you've deleted from the article in your last deletion: "In 2016 GiveWell, a charity assessment organization based on the effective altruism concept, did an extensive review of MIRI's research papers, and concluded that "MIRI has made relatively limited progress on the Agent Foundations research agenda so far, and this research agenda has little potential to decrease potential risks from advanced AI in comparison with other research directions that we would consider supporting". Please explain how this is "self-sourced puffery". To me, the content seems clearly not self-sourced and clearly not puffery. --Btcgeek (talk) 04:02, 2 April 2019 (UTC)[reply]
Citing an organisation about claims the organisation is making is primary sourcing. That's what the term means.
Do you have third-party, verifiable, reliable source coverage for the claim? Yes or no? This is a simple question, and you've yet to answer it. - David Gerard (talk) 07:30, 2 April 2019 (UTC)[reply]
Ok, now we're getting somewhere. First, confirm that "puffery" is no longer your concern, and that the material should not have been removed for reasons of puffery/self-promotion. Second, the sources that you removed seemed to follow all the guidelines of third-party verifiable and reliable sources that Wikipedia needs. The source was about GiveWell/Open Philanthropy writing about MIRI, and not MIRI writing about MIRI, so clearly it isn't a first party source. The material from the source is easily verifiable. GiveWell/Open Philanthropy is a fairly reliable source in my opinion. Now that we've broken down your concerns, which of these is exactly your concern?
1. An article about MIRI citing a GiveWell/Open Philanthropy source is primary source because you believe this is PR material put out by MIRI and not actually attributable to GiveWell/Open Philanthropy.
2. You're unable to verify that the quote that was removed from the article cannot be verified to belong to the source.
3. You believe GiveWell isn't a reliable source on Wikipedia and should be added to unreliable sources list on Wikipedia (provide your reasoning if this is the case).
The way the source works in this instance is similar to how we use sources in Wikipedia say to cite the Alexa rank of a website, or ranking lists from sources (e.g. list of countries by GDP say). Let's try to resolve this by laying out your concerns and addressing them specifically. --Btcgeek (talk) 14:41, 2 April 2019 (UTC)[reply]
You're still evading the question! Do you have third-party, verifiable, reliable source coverage for the claim? Yes or no? This is a simple question. Please answer it before you throw out other questions that aren't this question - David Gerard (talk) 20:00, 2 April 2019 (UTC)[reply]
Why are you asking the same question so many times without reading my replies? To reiterate, the source you deleted is a. third-party, verifiable, reliable source. First, you claimed the source was puffery. Then you implicitly backed off that claim which you clearly knew was not true after I pointed this out to you. Then you claimed it's somehow first-party when I have clearly told you several times now that it's not a primary source since the source is from GiveWell/Open Philanthropy and the article is about MIRI. Then you're somehow claiming this isn't verifiable and/or not a reliable source for Wikipedia. Before we go any further please answer my questions above without further evasion. If you think the source that you deleted is a primary source, for example, explain how a GiveWell/Open Philanthropy source is a primary source for an article on MIRI. --Btcgeek (talk) 21:46, 2 April 2019 (UTC)[reply]
You're citing the claim to one of the organisations directly involved in the claim - that's a primary source. That's what the words mean. It is not a Wikipedia-meaning Reliable Source - an independent third-party source on the claim. You're making completely incorrect claims about the quality of your source - David Gerard (talk) 21:38, 3 April 2019 (UTC)[reply]
I am withdrawing from this conversation. It doesn't seem like you're willing to do the right thing even when I've given you all the evidence and examples, and you continue to grossly misrepresent the sources that you deleted from the article. --Btcgeek (talk) 22:50, 3 April 2019 (UTC)[reply]
And if the fact hasn't been noted anywhere, it's not notable. Has any third-party RS even mentioned it? Surely this is not a high bar - David Gerard (talk) 20:05, 24 March 2019 (UTC)[reply]
The notability guidelines apply to whole articles, not contents of articles (see WP:NNC), and it is of obvious interest how an organisation is financed. The question here should be reliability of sources. — Charles Stewart (talk) 17:17, 31 March 2019 (UTC)[reply]

It is worth noting that (i) MIRI publishes audited accounts, and (ii) that since potential donors might be swayed by the fact of and reasoning behind the donation, claiming the donation took place when it did not would be fraudulent. We could simply ask the auditor to confirm that the donation took place. — Charles Stewart (talk) 12:09, 3 April 2019 (UTC)[reply]

References

  1. ^ "Machine Intelligence Research Institute — General Support (2016)". GiveWell. 2016. Retrieved 2019-03-05.
  2. ^ a b c "Machine Intelligence Research Institute — General Support (2017)". Open Philanthropy Project. 2017. Retrieved 2019-03-19.

New Open Phil grant

User:David Gerard, isn't WP:PRIMARY acceptable in this case? It can be supplemented with Open Phil's page on the grant, as well as an additional non-primary source once available. - Indefensible (talk) 16:56, 28 April 2020 (UTC)[reply]

Unless anyone else in the world cares about it, it's likely WP:UNDUE, I'd think - or the "yes, but so what?" test. I mean, others might disagree with me, sure. But nonprofits whose WP pages are encrusted with their own blog posts about themselves, detailing things that no third parties bothered documenting, tend to be the ones that really shouldn't have that much detail in their articles - David Gerard (talk) 19:52, 28 April 2020 (UTC)[reply]
Supplemented with Open Phil ref, at minimum this meets the existing 2019 grant sentence. - Indefensible (talk) 05:02, 1 May 2020 (UTC)[reply]
While it is unfortunately common to list grants in some articles, this still should be explained using neutral language. Ideally with context from better sources. Grayfell (talk) 05:40, 1 May 2020 (UTC)[reply]

Eliezer ha abandonado el edificio.

¿Ya tenemos WP:RS para esto? Lo mencionó en este podcast. - Scarpy ( discusión ) 12:12, 24 de febrero de 2023 (UTC) [ responder ]