Información

¿Cómo percibimos la aceleración?

¿Cómo percibimos la aceleración?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Hoy mi amigo y yo veníamos en moto y yo estaba sentado en dirección opuesta porque tenía algo en la mano (y fue divertido: P). Cuando empezó a andar en bicicleta sentí una aceleración muy alta. Le pedí que fuera lento, sin embargo, dijo que iba a velocidad regular. Luego, por curiosidad, él y yo probamos diferentes velocidades y diferentes aceleraciones mientras yo me sentaba en cualquier dirección de aceleración y en sentido opuesto. Para mi sorpresa, "percibí" más aceleración cuando estaba sentado en dirección opuesta a la de la aceleración. Mientras buscamos cómo percibimos la aceleración, sorprendentemente no es muy conocido. Encontré las siguientes explicaciones,

  • Sobrestimamos la hora de llegada (ref: this)
  • Endolinfa del sistema vestibular (ref: Wiki) [No es exactamente aceleración sino equilibrio]
  • Segmentos de movimiento interpolados (ref: this)

Mi pregunta, es solo percepción visual o mecanismo especial para la detección de aceleración? En cualquiera de estos casos, por qué sentía más aceleración mientras me encontraba en el lado opuesto que en la dirección de aceleración? [Mi suposición inicial es porque no tenía ningún apoyo y las señales visuales estaban estropeadas]

Actualizar:

Encontré esta publicación pero no obtuve ninguna respuesta satisfactoria del libro referido en respuesta.


Mi pregunta, ¿es solo percepción visual o un mecanismo especial para la detección de aceleración?

La aceleración es una conclusión sintetizada de una multitud de sistemas.

El más destacado es el sistema de endolinfa que ya mencionaste:

A medida que acelera, el endolito y los otolitos internos (pequeños depósitos calcificados) pasan sobre las células ciliadas y producen potenciales de acción que viajan al cerebro. Cuanto mayor sea la magnitud de la aceleración, se enviarán más potenciales de acción.

De aquí también proviene el mareo, ya que la endolinfa y los otolitos no descansan al mismo ritmo, lo que le da al cerebro momentáneamente dos interpretaciones diferentes de la aceleración que estás experimentando.

También existe el efecto Doppler:

Basado en el sistema coclear del oído interno esta vez, en lugar del sistema vestibular, el efecto Doppler es interpretado por el cerebro y da una interpretación muy aproximada de ambas velocidades. y aceleración (si la velocidad del objeto cambia).

Luego está todo el lado visual de las cosas. El desenfoque de movimiento y la velocidad a la que la percepción de los objetos cambia de tamaño contribuyen en gran medida a nuestro sentido de aceleración visual, pero casi todo esto se hace mediante la manipulación compleja de datos visuales en los lóbulos occipital y frontal.

También hay innumerables contribuyentes menores: tensión en la piel y las articulaciones (la sensación de peso debido a la aceleración), facilidad para respirar, células sensoriales en su cabello si su cabello está expuesto al aire libre durante la aceleración, sensores de presión arterial (y entumecimiento cuando el cuerpo no puede compensar), etc.

En cualquiera de estos casos, ¿por qué sentí más aceleración mientras me encontraba en el lado opuesto que en la dirección de la aceleración?

Mi conjetura sería porque su cuerpo está más sintonizado visualmente para mirar en la misma dirección que la aceleración, y cuando miraba en la dirección opuesta, su mente se compensaba en exceso en un esfuerzo por protegerse, ya que probablemente no tenga muchas oportunidades para acelerar. Acelere hacia atrás en distancias de más de unos pocos pies.

Es posible que su cerebro también haya entrado un poco en pánico porque no podía ver hacia dónde se dirigía (generalmente muy mal), y el estado sensorial elevado hizo que la magnitud de la aceleración se sintiera mayor.

Sin embargo, estas son mis mejores conjeturas. Si alguien tiene una fuente académica, ¡no dude en editar esta respuesta!


Guías y consejos en línea para SAT / ACT Prep

"¡Vaya, realmente pasaste de cero a sesenta allí!"

¿Alguna vez ha escuchado a alguien usar el modismo "cero a sesenta" como lo hice en el ejemplo anterior? Cuando alguien dice que algo pasó de "cero a sesenta", realmente está diciendo que las cosas se aceleraron muy rápidamente. La aceleración es la cantidad en que cambia la velocidad de algo durante un período de tiempo determinado.

En este artículo, hablaremos todo sobre la aceleración: qué es y cómo calcularla. ¡Cinturón de seguridad!


La imaginación puede cambiar lo que escuchamos y vemos

Un estudio del Karolinska Institutet en Suecia muestra que nuestra imaginación puede afectar la forma en que experimentamos el mundo más de lo que pensamos. Lo que imaginamos oír o ver "en nuestra cabeza" puede cambiar nuestra percepción real. El estudio, que se publica en la revista científica Biología actual, arroja nueva luz sobre una pregunta clásica en psicología y neurociencia: cómo nuestros cerebros combinan información de los diferentes sentidos.

"A menudo pensamos en las cosas que imaginamos y las cosas que percibimos como claramente disociables", dice Christopher Berger, estudiante de doctorado en el Departamento de Neurociencia y autor principal del estudio. "Sin embargo, lo que muestra este estudio es que nuestra imaginación de un sonido o una forma cambia la forma en que percibimos el mundo que nos rodea de la misma manera que lo hace escuchar ese sonido o ver esa forma. Específicamente, descubrimos que lo que imaginamos oír puede cambiar lo que realmente vemos y lo que imaginamos ver puede cambiar lo que realmente escuchamos ".

El estudio consiste en una serie de experimentos que hacen uso de ilusiones en las que la información sensorial de un sentido cambia o distorsiona la percepción de otro sentido. Participaron en total noventa y seis voluntarios sanos.

En el primer experimento, los participantes experimentaron la ilusión de que dos objetos que pasaban chocaban en lugar de pasarse uno al otro cuando imaginaban un sonido en el momento en que los dos objetos se encontraban. En un segundo experimento, la percepción espacial de los participantes de un sonido estaba sesgada hacia un lugar donde imaginaban ver la breve aparición de un círculo blanco. En el tercer experimento, la percepción de los participantes de lo que una persona estaba diciendo fue cambiada por su imaginación de un sonido en particular.

Según los científicos, los resultados del estudio actual pueden ser útiles para comprender los mecanismos por los cuales el cerebro no distingue entre el pensamiento y la realidad en ciertos trastornos psiquiátricos como la esquizofrenia. Otra área de uso podría ser la investigación sobre interfaces cerebro-computadora, donde la imaginación de individuos paralizados se usa para controlar dispositivos virtuales y artificiales.

"Este es el primer conjunto de experimentos para establecer definitivamente que las señales sensoriales generadas por la imaginación de uno son lo suficientemente fuertes como para cambiar la percepción del mundo real de una modalidad sensorial diferente", dice el profesor Henrik Ehrsson, el investigador principal detrás del estudio.


Cómo funciona el olfato

El olfato es a menudo nuestra primera respuesta a los estímulos. Nos alerta para disparar antes de que veamos llamas. Nos hace retroceder antes de probar la comida podrida. Pero aunque el olfato es un sentido básico, también está a la vanguardia de la investigación neurológica. Los científicos todavía están explorando cómo, precisamente, recogemos los olores, los procesamos y los interpretamos como olores. ¿Por qué los investigadores, los perfumistas, los desarrolladores e incluso las agencias gubernamentales sienten tanta curiosidad por el olfato? ¿Qué tiene un sentido aparentemente rudimentario tan tentador?

Oler, como el gusto, es un sentido químico detectado por células sensoriales llamadas quimiorreceptores. Cuando un olor estimula los quimiorreceptores de la nariz que detectan el olor, transmiten impulsos eléctricos al cerebro. Luego, el cerebro interpreta los patrones en la actividad eléctrica como olores específicos y la sensación olfativa se convierte en percepción, algo que podemos reconocer como olor. El único otro sistema químico que puede identificar rápidamente, dar sentido y memorizar nuevas moléculas es el sistema inmunológico.

Pero el olfato, más que cualquier otro sentido, también está íntimamente ligado a las partes del cerebro que procesan la emoción y el aprendizaje asociativo. El bulbo olfatorio en el cerebro, que clasifica la sensación en percepción, es parte del sistema límbico - un sistema que incluye la amígdala y el hipocampo, estructuras vitales para nuestro comportamiento, estado de ánimo y memoria. Este vínculo con el centro emocional del cerebro hace que el olfato sea una frontera fascinante en la neurociencia, la ciencia del comportamiento y la publicidad.

En este artículo, exploraremos cómo los humanos perciben el olfato, cómo desencadena la memoria y las formas interesantes (y a veces inusuales) de manipular el olor y la percepción olfativa.


† Dirección actual: Departamento de Ciencias Preclínicas Veterinarias, Universidad de Liverpool, Crown Street, Liverpool L69 7ZJ, Reino Unido

Este es un artículo de acceso abierto distribuido bajo los términos de la Licencia de Atribución Creative Commons, que permite el uso, distribución y reproducción sin restricciones en cualquier medio, siempre que el trabajo original se cite correctamente.

Referencias

. 1998 Salto vertical Galago senegalensis: la búsqueda de un amplificador de potencia mecánico obligatorio. Phil. Trans. R. Soc. Lond. B 353, 1607–1620. (doi: 10.1098 / rstb.1998.0313). Enlace, ISI, Google Académico

Aerts P., Van Damme R., d'Aout K. y Van Hooydonck B.

. 2003 Bipedalismo en lagartos: el modelado de todo el cuerpo revela una posible enjuta. Phil. Trans. R. Soc. Lond. B 358, 1525-1533. (doi: 10.1098 / rstb.2003.1342). Enlace, ISI, Google Académico

Askew G. N., Marsh R. L. y Ellington C. P.

. 2001 La producción de potencia mecánica de los músculos de vuelo de la codorniz de pecho azul (Coturnix chinensis) durante el despegue. J. Exp. Biol. 204, 3601–3619. PubMed, Google Académico

. 1975 La energética del salto de la langosta Schistocerca gregaria . J. Exp. Biol. 63, 58–83. Google Académico

. 1989 Escala del soporte corporal en mamíferos: postura de las extremidades y mecánica muscular. Ciencias 245, 45–48. (doi: 10.1126 / science.2740914). Crossref, PubMed, ISI, Google Académico

. 1993 Saltar en colémbolos: mecanismo y dinámica. J. Zool. Lond. 229, 217–236. (doi: 10.1111 / j.1469-7998.1993.tb02632.x). Crossref, académico de Google

. 2006 Rendimiento de salto de insectos saltamontes. J. Exp. Biol. 209, 4607–4621. (doi: 10.1242 / jeb.02539). Crossref, PubMed, ISI, Google Académico

Cavagna A. G., Komarek L. y Mazzoleni S.

. 1971 La mecánica de la carrera de velocidad. J. Physiol. 217, 709–721. Crossref, PubMed, Google Académico

. 1944 Estudios de mecánica del esqueleto de tetrápodos. J. Exp. Biol. 20, 88-116. Google Académico

. 1938 El calor del acortamiento y las constantes dinámicas del músculo. Proc. R. Soc. Lond. B 126, 136-195. (10.1098 / rspb.1938.0050). Enlace, Google Académico

Janssen I., Heymsfield S. B., Wang Z. y Ross R.

. 2000 Masa y distribución del músculo esquelético en 468 hombres y mujeres de 18 a 88 años. J. Appl. Physiol. 89, 81–88. Crossref, PubMed, ISI, Google Académico

Lee D. V., Bertram J. E. y Todhunter R. J.

. 1999 Aceleración y equilibrio en perros al trote. J. Exp. Biol. 202, 3565–3573. PubMed, ISI, Google Académico

McGowan C. P., Baudinette R. V. y Biewener A. A.

. 2005 Trabajo conjunto y poder asociado con aceleración y desaceleración en canguros tammar (Macropus eugenii) . J. Exp. Biol. 208, 41–53. (doi: 10.1242 / jeb.01305). Crossref, PubMed, ISI, Google Académico

. 2006 El uso de grabadoras MP3 para registrar datos de acelerómetros montados en pezuñas equinas. Eq. Veterinario. J. 38, 675–680. (doi: 10.2746 / 042516406X156578). Crossref, PubMed, Google Académico

Pfau T., Witte T. H. y Wilson A. M.

. 2005 Un método para derivar datos de desplazamiento durante un movimiento cíclico usando un sensor inercial. J. Exp. Biol. 208, 2503-2514. (doi: 10.1242 / jeb.01658). Crossref, PubMed, Google Académico

. 2002 Producción de potencia mecánica durante las aceleraciones de carrera en pavos salvajes. J. Exp. Biol. 205, 1485-1494. PubMed, Google Académico

. 2008 Medición de los parámetros de la zancada utilizando un GPS portátil y una unidad de medición inercial. J. Biomech. 41, 1398–1406. (doi: 10.1016 / j.jbiomech.2008.02.021). Crossref, PubMed, Google Académico

. 2005 Biomecánica: sin límite de fuerza en la velocidad de sprint de los galgos. Naturaleza 438, 753–754. (doi: 10.1038 / 438753a). Crossref, PubMed, Google Académico

. 1998 Estimación de velocidades y aceleraciones de la locomoción animal: un experimento de simulación que compara algoritmos de diferenciación numérica. J. Exp. Biol. 201, 981–995. ISI, académico de Google

Williams S. B., Wilson A. M., Daynes J., Peckham K. y Payne R.

. 2008 Brazos de anatomía funcional y momento muscular del miembro torácico de un atleta de élite de velocidad: el galgo de carrera. J. Anat. 213, 361–372. (doi: 10.1111 / j.1469-7580.2008.00961.x). Crossref, PubMed, Google Académico

Williams S. B., Usherwood J. R., Jespers K., Channon A. J. y Wilson A. M.

. 2009 Explorando la base mecánica de la aceleración: función locomotora de la extremidad pélvica durante las aceleraciones en galgos de carreras (Canis familiaris) . J. Exp. Biol. 212, 550–565. (doi: 10.1242 / jeb.018093). Crossref, PubMed, Google Académico

Witte T. H., Knill K. y Wilson A. M.

. 2004 Determinación de la fuerza máxima de reacción vertical del suelo a partir del factor de trabajo en el caballo (Equus caballus) . J. Exp. Biol. 207, 3639–3648. (doi: 10.1242 / jeb.01182). Crossref, PubMed, ISI, Google Académico


¿Cómo percibimos la aceleración? - biología

¿Alguna vez se ha preguntado por qué estamos rodeados de cosas que nos ayudan a hacer todo más rápido y más rápido? ¿Comunicarse más rápido, pero también trabajar más rápido, realizar operaciones bancarias más rápido, viajar más rápido, encontrar una cita más rápido, cocinar más rápido, limpiar más rápido y hacer todo al mismo tiempo? ¿Cómo se siente acerca de abarrotar aún más cada hora de vigilia?

Bueno, para mi generación de estadounidenses, la velocidad se siente como un derecho de nacimiento. A veces pienso que nuestra velocidad mínima es Mach 3. Algo menos, y tememos perder nuestra ventaja competitiva. Pero incluso mi generación está empezando a cuestionar si somos los maestros de la velocidad o si la velocidad nos está dominando.

Soy antropólogo en Rand Corporation, y mientras muchos antropólogos estudian las culturas antiguas, yo me concentro en las culturas modernas y en cómo nos estamos adaptando a todo este cambio que está ocurriendo en el mundo. Recientemente, me asocié con un ingeniero, Seifu Chonde, para estudiar la velocidad. Estábamos interesados ​​tanto en cómo la gente se está adaptando a esta era de aceleración como en sus implicaciones de seguridad y políticas. ¿Cómo sería nuestro mundo en 25 años si el ritmo actual de cambio sigue acelerándose? ¿Qué significaría para el transporte, el aprendizaje, la comunicación, la fabricación, el armamento o incluso la selección natural? ¿Un futuro más rápido nos hará más seguros y productivos? ¿O nos hará más vulnerables?

En nuestra investigación, las personas aceptaron la aceleración como inevitable, tanto la emoción como la falta de control. Temen que si disminuyen la velocidad, podrían correr el riesgo de volverse obsoletos. Dicen que prefieren quemarse que oxidarse. Sin embargo, al mismo tiempo, les preocupa que la velocidad pueda erosionar sus tradiciones culturales y su sentido de hogar. Pero incluso las personas que están ganando en el juego de la velocidad admiten sentirse un poco incómodas. Ven la aceleración como una ampliación de la brecha entre los que tienen, los de la jet-set que están zumbando y los que no tienen, que se quedan en el polvo digital.

Sí, tenemos buenas razones para pronosticar que el futuro será más rápido, pero de lo que me he dado cuenta es que la velocidad es paradójica y, como todas las buenas paradojas, nos enseña sobre la experiencia humana, por absurda y compleja que sea. .

La primera paradoja es que amamos la velocidad y nos emociona su intensidad. Pero nuestros cerebros prehistóricos no están realmente hechos para eso, así que inventamos montañas rusas, autos de carrera y aviones supersónicos, pero sufrimos latigazo cervical, mareos, jet lag. No evolucionamos hacia la multitarea. Más bien, evolucionamos para hacer una cosa con un enfoque increíble, como cazar, no necesariamente a gran velocidad, sino con resistencia a grandes distancias. Pero ahora existe una brecha cada vez mayor entre nuestra biología y nuestro estilo de vida, un desajuste entre para qué están hechos nuestros cuerpos y para qué los hacemos hacer. Es un fenómeno que mis mentores han llamado & quot; Stone Agers en el carril rápido & quot.

Una segunda paradoja de la velocidad es que se puede medir objetivamente. ¿Derecha? Millas por hora, gigabytes por segundo. Pero cómo se siente la velocidad, y si nos gusta, es muy subjetivo. De modo que podemos documentar que el ritmo al que estamos adoptando nuevas tecnologías está aumentando. Por ejemplo, pasaron 85 años desde la introducción del teléfono hasta que la mayoría de los estadounidenses tenían teléfonos en casa. Por el contrario, la mayoría de nosotros solo tardó 13 años en tener teléfonos inteligentes. Y la forma en que las personas actúan y reaccionan a la velocidad varía según la cultura y entre diferentes personas dentro de la misma cultura. Las interacciones que podrían verse como agradablemente enérgicas y convenientes en algunas culturas podrían verse como horriblemente groseras en otras. Quiero decir, no irías a pedir una taza para llevar en una ceremonia del té japonesa para poder volar a tu próxima parada turística. ¿Lo harías?

Una tercera paradoja es que la velocidad engendra velocidad. Cuanto más rápido respondo, más respuestas obtengo, más rápido tengo que responder de nuevo. Se suponía que tener más comunicación e información al alcance de la mano en un momento dado haría que la toma de decisiones fuera más fácil y racional. Pero eso realmente no parece estar sucediendo.

Aquí hay una paradoja más: si se suponía que todas estas tecnologías más rápidas nos liberarían de la monotonía, ¿por qué todos nos sentimos tan presionados por el tiempo? ¿Por qué chocamos nuestros autos en cantidades récord, porque creemos que tenemos que responder ese texto de inmediato? ¿No debería sentirse un poco más divertida y menos ansiosa la vida en el carril rápido? Los hablantes de alemán incluso tienen una palabra para esto: & quotEilkrankheit & quot. En inglés, que & # 39s & quothurry disease & quot. para ayudarnos a percibir y responder rápidamente. A veces eso nos salva la vida, ¿verdad? Pelea o vuela. Pero a veces, nos lleva por mal camino a largo plazo.

A menudo, cuando nuestra sociedad tiene fallas importantes, no son fallas tecnológicas. Son fallas que ocurren cuando tomamos decisiones demasiado rápido en piloto automático. No hicimos el pensamiento creativo o crítico necesario para conectar los puntos o descartar información falsa o dar sentido a la complejidad. Ese tipo de pensamiento no se puede hacer rápido. Eso es pensamiento lento. Dos psicólogos, Daniel Kahneman y Amos Tversky, comenzaron a señalar esto en 1974, y todavía estamos luchando por hacer algo con sus ideas.

Toda la historia moderna puede considerarse como una aceleración tras otra. Es como si pensáramos que si aceleramos lo suficiente, podemos dejar atrás nuestros problemas. Pero nunca lo hacemos. Sabemos esto en nuestras propias vidas y los legisladores también lo saben. Así que ahora estamos recurriendo a la inteligencia artificial para ayudarnos a tomar decisiones más rápidas e inteligentes para procesar este universo de datos en constante expansión.Pero las máquinas que procesan datos no son un sustituto del pensamiento crítico y sostenido de los humanos, cuyos cerebros de la Edad de Piedra necesitan un poco de tiempo para dejar que sus impulsos disminuyan, para ralentizar la mente y dejar fluir los pensamientos.

Si está empezando a pensar que deberíamos pisar el freno, esa no siempre será la solución correcta. Todos sabemos que un tren que va demasiado rápido en una curva puede descarrilar, pero Seifu, el ingeniero, me enseñó que un tren que va demasiado lento en una curva también puede descarrilar.

Así que la gestión de esta racha de aceleración comienza con el entendimiento de que tenemos más control sobre la velocidad de lo que creemos, individualmente y como sociedad. A veces, tendremos que diseñarnos a nosotros mismos para ir más rápido. Querremos solucionar el estancamiento, acelerar la ayuda en caso de desastres para las víctimas del huracán o utilizar la impresión en 3D para producir lo que necesitamos en el momento, justo cuando lo necesitamos. A veces, sin embargo, querremos que nuestro entorno se sienta más lento para diseñar el choque a partir de la experiencia rápida. Y está bien no estar estimulado todo el tiempo. Es bueno para adultos y para niños. Quizás sea aburrido, pero nos da tiempo para reflexionar. El tiempo lento no es tiempo perdido.

Y debemos reconsiderar lo que significa ahorrar tiempo. La cultura y los rituales en todo el mundo se basan en la lentitud, porque la lentitud nos ayuda a reforzar nuestros valores compartidos y a conectarnos. Y la conexión es una parte fundamental del ser humano. Necesitamos dominar la velocidad, y eso significa pensar detenidamente sobre las ventajas y desventajas de cualquier tecnología determinada. ¿Le ayudará a recuperar el tiempo que puede utilizar para expresar su humanidad? ¿Te dará prisa la enfermedad? ¿Dará prisa a otras personas la enfermedad? Si tienes la suerte de decidir el ritmo que quieres recorrer en la vida, es un privilegio. Úselo. Puede decidir que necesita acelerar y crear un tiempo lento: tiempo para reflexionar, filtrarse a su propio ritmo, tiempo para escuchar, empatizar, descansar la mente, quedarse en la mesa de la cena.

Así que a medida que nos acercamos al futuro, consideremos establecer las tecnologías de la velocidad, el propósito de la velocidad y nuestras expectativas de velocidad a un ritmo más humano.


Contenido

Aunque el progreso tecnológico se ha acelerado en la mayoría de las áreas (aunque se ha desacelerado en algunas), se ha visto limitado por la inteligencia básica del cerebro humano, que, según Paul R. Ehrlich, no ha cambiado significativamente durante milenios. [12] Sin embargo, con el creciente poder de las computadoras y otras tecnologías, eventualmente podría ser posible construir una máquina que sea significativamente más inteligente que los humanos. [13]

Si se inventara una inteligencia sobrehumana, ya sea mediante la amplificación de la inteligencia humana o mediante la inteligencia artificial, aportaría mayores habilidades inventivas y de resolución de problemas de las que son capaces los humanos actuales. Tal IA se conoce como Semilla de IA [14] [15] porque si una IA se creara con capacidades de ingeniería que igualaran o superaran las de sus creadores humanos, tendría el potencial de mejorar de forma autónoma su propio software y hardware o diseñar una máquina aún más capaz. Esta máquina más capaz podría luego diseñar una máquina con una capacidad aún mayor. Estas iteraciones de superación personal recursiva podrían acelerarse, permitiendo potencialmente un enorme cambio cualitativo antes de que se establezcan los límites superiores impuestos por las leyes de la física o la computación teórica. Se especula que en muchas iteraciones, tal IA superaría con creces las capacidades cognitivas humanas.

La explosión de inteligencia es un posible resultado de que la humanidad construya inteligencia general artificial (AGI). AGI puede ser capaz de superación personal recursiva, lo que lleva a la rápida aparición de la superinteligencia artificial (ASI), cuyos límites se desconocen, poco después de que se logre la singularidad tecnológica.

I. J. Good especuló en 1965 que la inteligencia artificial general podría provocar una explosión de inteligencia. Especuló sobre los efectos de las máquinas sobrehumanas, si alguna vez se inventaran: [16]

Dejemos que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; entonces, sin duda, habría una "explosión de inteligencia", y la inteligencia del hombre quedaría muy atrás. Así, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil para decirnos cómo mantenerla bajo control.

Aparición de la superinteligencia Editar

Una superinteligencia, hiperinteligencia o inteligencia sobrehumana es un agente hipotético que posee una inteligencia que supera con creces la de las mentes humanas más brillantes y talentosas. "Superinteligencia" también puede referirse a la forma o grado de inteligencia que posee dicho agente. John von Neumann, Vernor Vinge y Ray Kurzweil definen el concepto en términos de creación tecnológica de superinteligencia, argumentando que es difícil o imposible para los humanos actuales predecir cómo serían las vidas de los seres humanos en un mundo post-singularidad. . [7] [17]

Los pronosticadores e investigadores de tecnología no están de acuerdo con respecto a cuándo, o si, es probable que se supere la inteligencia humana. Algunos argumentan que los avances en inteligencia artificial (IA) probablemente resultarán en sistemas de razonamiento general que carecen de limitaciones cognitivas humanas. Otros creen que los humanos evolucionarán o modificarán directamente su biología para lograr una inteligencia radicalmente mayor. Varios escenarios de estudios de futuros combinan elementos de ambas posibilidades, lo que sugiere que es probable que los humanos interactúen con las computadoras o carguen sus mentes en las computadoras de una manera que permita una amplificación sustancial de la inteligencia.

Singularidad sin IA Editar

Algunos escritores usan "la singularidad" de una manera más amplia para referirse a cualquier cambio radical en nuestra sociedad provocado por nuevas tecnologías como la nanotecnología molecular, [18] [19] [20] aunque Vinge y otros escritores afirman específicamente que sin superinteligencia, tales cambios no calificarían como una verdadera singularidad. [7]

Superinteligencia de velocidad Editar

Una superinteligencia de velocidad describe una IA que puede hacer todo lo que un humano puede hacer, donde la única diferencia es que la máquina corre más rápido. [21] Por ejemplo, con un aumento de un millón de veces en la velocidad de procesamiento de la información en relación con la de los humanos, un año subjetivo pasaría en 30 segundos físicos. [22] Tal diferencia en la velocidad de procesamiento de la información podría impulsar la singularidad. [23]

Muchos tecnólogos y académicos prominentes cuestionan la plausibilidad de una singularidad tecnológica, incluidos Paul Allen, Jeff Hawkins, John Holland, Jaron Lanier y Gordon Moore, cuya ley se cita a menudo en apoyo del concepto. [24] [25] [26]

La mayoría de los métodos propuestos para crear mentes sobrehumanas o transhumanas se dividen en una de dos categorías: amplificación de la inteligencia del cerebro humano e inteligencia artificial. Las muchas formas especuladas para aumentar la inteligencia humana incluyen bioingeniería, ingeniería genética, fármacos nootrópicos, asistentes de IA, interfaces directas cerebro-computadora y carga mental. Estos múltiples caminos hacia una explosión de inteligencia hacen que una singularidad sea más probable, ya que todos tendrían que fallar para que no ocurra una singularidad. [22]

Robin Hanson expresó su escepticismo sobre el aumento de la inteligencia humana y escribió que una vez que se haya agotado el "fruto fácil" de los métodos fáciles para aumentar la inteligencia humana, será cada vez más difícil encontrar nuevas mejoras. [27] A pesar de todas las formas especuladas para amplificar la inteligencia humana, la inteligencia artificial no humana (específicamente la inteligencia artificial) es la opción más popular entre las hipótesis que impulsarían la singularidad. [ cita necesaria ]

Que ocurra o no una explosión de inteligencia depende de tres factores. [28] El primer factor de aceleración son las nuevas mejoras de inteligencia que son posibles gracias a cada mejora anterior. Por el contrario, a medida que las inteligencias se vuelven más avanzadas, los avances adicionales se volverán cada vez más complicados, posiblemente superando la ventaja de una mayor inteligencia. Cada mejora debe generar al menos una mejora más, en promedio, para que continúe el movimiento hacia la singularidad. Finalmente, las leyes de la física eventualmente evitarán cualquier mejora adicional.

Hay dos causas lógicamente independientes, pero que se refuerzan mutuamente, de las mejoras de inteligencia: aumentos en la velocidad de cálculo y mejoras en los algoritmos utilizados. [29] El primero está predicho por la Ley de Moore y las mejoras previstas en el hardware, [30] y es comparativamente similar a los avances tecnológicos anteriores. Pero hay algunos investigadores de IA, [ ¿Quién? ] que creen que el software es más importante que el hardware. [31]

Una encuesta por correo electrónico de 2017 de autores con publicaciones en las conferencias de aprendizaje automático NeurIPS e ICML de 2015 preguntó sobre la posibilidad de una explosión de inteligencia. De los encuestados, el 12% dijo que era "bastante probable", el 17% dijo que era "probable", el 21% dijo que era "casi uniforme", el 24% dijo que era "poco probable" y el 26% dijo que era "bastante improbable". ". [32]

Mejoras de velocidad Editar

Tanto para la inteligencia humana como para la artificial, las mejoras de hardware aumentan la tasa de futuras mejoras de hardware. En pocas palabras, [33] la ley de Moore sugiere que si la primera duplicación de la velocidad tomó 18 meses, la segunda tomaría 18 meses subjetivos o 9 meses externos, después de lo cual, cuatro meses, dos meses, etc., hacia una singularidad de velocidad. [34] Eventualmente se puede alcanzar un límite superior de velocidad, aunque no está claro qué tan alto sería. Jeff Hawkins ha declarado que un sistema informático auto-mejorable inevitablemente se toparía con límites superiores de potencia informática: "al final, hay límites en cuanto a lo grandes y rápidos que pueden funcionar las computadoras. Terminaríamos en el mismo lugar en el que acabamos de obtener allí un poco más rápido. No habría ninguna singularidad ". [35]

Es difícil comparar directamente el hardware basado en silicio con las neuronas. Pero Berglas (2008) señala que el reconocimiento de voz por computadora se acerca a las capacidades humanas, y que esta capacidad parece requerir un 0,01% del volumen del cerebro. Esta analogía sugiere que el hardware de las computadoras modernas está a unos pocos órdenes de magnitud de ser tan poderoso como el cerebro humano.

Crecimiento exponencial Editar

El crecimiento exponencial de la tecnología informática sugerido por la ley de Moore se cita comúnmente como una razón para esperar una singularidad en un futuro relativamente cercano, y varios autores han propuesto generalizaciones de la ley de Moore. El científico informático y futurista Hans Moravec propuso en un libro de 1998 [36] que la curva de crecimiento exponencial podría extenderse a través de tecnologías informáticas anteriores al circuito integrado.

Ray Kurzweil postula una ley de rendimientos acelerados en la que la velocidad del cambio tecnológico (y más generalmente, todos los procesos evolutivos [37]) aumenta exponencialmente, generalizando la ley de Moore de la misma manera que la propuesta de Moravec, y también incluyendo la tecnología de materiales (especialmente cuando se aplica a la nanotecnología), tecnología médica y otros. [38] Entre 1986 y 2007, la capacidad de aplicación específica de las máquinas para calcular información per cápita se duplicó aproximadamente cada 14 meses; la capacidad per cápita de las computadoras de uso general del mundo se duplicó cada 18 meses; la capacidad mundial de telecomunicaciones per cápita se duplicó cada 34 meses. y la capacidad mundial de almacenamiento per cápita se duplicó cada 40 meses. [39] Por otro lado, se ha argumentado que el patrón de aceleración global que tiene la singularidad del siglo XXI como parámetro debe caracterizarse como hiperbólico en lugar de exponencial. [40]

Kurzweil se reserva el término "singularidad" para un rápido aumento de la inteligencia artificial (a diferencia de otras tecnologías), escribiendo por ejemplo que "La singularidad nos permitirá trascender estas limitaciones de nuestros cuerpos biológicos y cerebros. No habrá distinción, post -Singularidad, entre humano y máquina ”. [41] También define su fecha predicha de la singularidad (2045) en términos de cuándo espera que las inteligencias basadas en computadora excedan significativamente la suma total de la capacidad intelectual humana, escribiendo que los avances en computación antes de esa fecha "no representarán la Singularidad". porque "todavía no corresponden a una expansión profunda de nuestra inteligencia". [42]

Acelerar el cambio Editar

Algunos defensores de la singularidad argumentan su inevitabilidad a través de la extrapolación de tendencias pasadas, especialmente aquellas relacionadas con la reducción de brechas entre las mejoras tecnológicas. En uno de los primeros usos del término "singularidad" en el contexto del progreso tecnológico, Stanislaw Ulam habla de una conversación con John von Neumann sobre la aceleración del cambio:

Una conversación se centró en el progreso cada vez más acelerado de la tecnología y los cambios en el modo de vida humana, que da la apariencia de acercarse a alguna singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos, tal como los conocemos, no podrían continuar. [5]

Kurzweil afirma que el progreso tecnológico sigue un patrón de crecimiento exponencial, siguiendo lo que él llama la "ley de los rendimientos acelerados". Siempre que la tecnología se acerque a una barrera, escribe Kurzweil, las nuevas tecnologías la superarán. Él predice que los cambios de paradigma se volverán cada vez más comunes, lo que conducirá a "un cambio tecnológico tan rápido y profundo que representa una ruptura en el tejido de la historia humana". [43] Kurzweil cree que la singularidad ocurrirá aproximadamente en 2045. [38] Sus predicciones difieren de las de Vinge en que predice un ascenso gradual a la singularidad, en lugar de la inteligencia sobrehumana de auto mejora de Vinge.

Los peligros que se mencionan a menudo incluyen los comúnmente asociados con la nanotecnología molecular y la ingeniería genética. Estas amenazas son temas importantes tanto para los defensores de la singularidad como para los críticos, y fueron el tema de Bill Joy. Cableado artículo de revista "Por qué el futuro no nos necesita". [6] [44]

Mejoras en el algoritmo Editar

Algunas tecnologías de inteligencia, como "semilla de IA", [14] [15] también pueden tener el potencial de no solo hacerse más rápidas, sino también más eficientes, modificando su código fuente. Estas mejoras harían posibles más mejoras, lo que haría posibles más mejoras, etc.

El mecanismo para un conjunto de algoritmos de mejora automática recursiva difiere de un aumento en la velocidad de cálculo sin procesar de dos maneras. Primero, no requiere influencia externa: las máquinas que diseñan hardware más rápido aún requerirían humanos para crear el hardware mejorado o programar las fábricas de manera adecuada. [ cita necesaria ] Una IA que reescriba su propio código fuente podría hacerlo mientras está contenida en una caja de IA.

En segundo lugar, al igual que con la concepción de la singularidad de Vernor Vinge, es mucho más difícil predecir el resultado. Si bien los aumentos de velocidad parecen ser solo una diferencia cuantitativa de la inteligencia humana, las mejoras reales del algoritmo serían cualitativamente diferentes. Eliezer Yudkowsky lo compara con los cambios que trajo la inteligencia humana: los humanos cambiaron el mundo miles de veces más rápido que la evolución, y de formas totalmente diferentes. De manera similar, la evolución de la vida fue una desviación masiva y una aceleración de las tasas de cambio geológico anteriores, y la inteligencia mejorada podría hacer que el cambio vuelva a ser tan diferente. [45]

Existen peligros sustanciales asociados con una singularidad de explosión de inteligencia que se origina a partir de un conjunto de algoritmos que se mejoran a sí mismos de forma recursiva. En primer lugar, es posible que la estructura de objetivos de la IA no sea invariable con la superación personal, lo que podría hacer que la IA se optimice para algo diferente de lo que se pretendía originalmente. [46] [47] En segundo lugar, las IA podrían competir por los mismos recursos escasos que utiliza la humanidad para sobrevivir. [48] ​​[49]

Si bien no son activamente maliciosos, no hay razón para pensar que las IA promoverían activamente los objetivos humanos a menos que pudieran programarse como tales y, de no ser así, podrían usar los recursos que se utilizan actualmente para apoyar a la humanidad para promover sus propios objetivos, provocando la extinción humana. [50] [51] [52]

Carl Shulman y Anders Sandberg sugieren que las mejoras de algoritmos pueden ser el factor limitante para una singularidad, mientras que la eficiencia del hardware tiende a mejorar a un ritmo constante, las innovaciones de software son más impredecibles y pueden verse obstaculizadas por la investigación acumulativa en serie. Sugieren que en el caso de una singularidad limitada por software, la explosión de inteligencia en realidad sería más probable que con una singularidad limitada por hardware, porque en el caso limitado por software, una vez que se desarrolle la IA a nivel humano, podría ejecutarse en serie en muy hardware rápido y la abundancia de hardware barato haría que la investigación de la IA sea menos restringida. [53] Una gran cantidad de hardware acumulado que se puede liberar una vez que el software descubre cómo usarlo se ha denominado "proyección informática". [54]

Críticas Editar

Algunos críticos, como el filósofo Hubert Dreyfus, afirman que las computadoras o las máquinas no pueden alcanzar la inteligencia humana, mientras que otros, como el físico Stephen Hawking, sostienen que la definición de inteligencia es irrelevante si el resultado neto es el mismo. [55]

El psicólogo Steven Pinker declaró en 2008:

. No hay la menor razón para creer en una singularidad venidera. El hecho de que pueda visualizar un futuro en su imaginación no es evidencia de que sea probable o incluso posible. Mire las ciudades abovedadas, los desplazamientos en jet-pack, las ciudades submarinas, los edificios de una milla de altura y los automóviles de propulsión nuclear, todos ellos elementos básicos de las fantasías futuristas de cuando era un niño que nunca llegaron. La pura potencia de procesamiento no es un polvo de duendes que resuelve mágicamente todos tus problemas. . [24]

[Las computadoras] lo han hecho, literalmente. sin inteligencia, sin motivación, sin autonomía y sin agencia. Los diseñamos para que se comporten como si tuvieran cierto tipo de psicología, pero no hay una realidad psicológica en los procesos o comportamientos correspondientes. . [L] a maquinaria no tiene creencias, deseos, [o] motivaciones. [56]

Martin Ford en Las luces del túnel: automatización, aceleración de la tecnología y economía del futuro [57] postula una "paradoja tecnológica" en el sentido de que antes de que ocurriera la singularidad, la mayoría de los trabajos rutinarios en la economía serían automatizados, ya que esto requeriría un nivel de tecnología inferior al de la singularidad. Esto causaría un desempleo masivo y una caída en picado de la demanda de los consumidores, lo que a su vez destruiría el incentivo para invertir en las tecnologías que serían necesarias para lograr la Singularidad. El desplazamiento laboral ya no se limita cada vez más al trabajo tradicionalmente considerado "rutinario". [58]

Theodore Modis [59] y Jonathan Huebner [60] argumentan que la tasa de innovación tecnológica no solo ha dejado de aumentar, sino que ahora está disminuyendo.La evidencia de esta disminución es que el aumento de las frecuencias de reloj de las computadoras se está desacelerando, incluso mientras se mantiene la predicción de Moore de un aumento exponencial de la densidad del circuito. Esto se debe a la acumulación excesiva de calor del chip, que no se puede disipar lo suficientemente rápido como para evitar que el chip se derrita cuando se opera a velocidades más altas. Los avances en la velocidad pueden ser posibles en el futuro en virtud de diseños de CPU y procesadores multicelulares más eficientes en el consumo de energía. [61] Si bien Kurzweil usó los recursos de Modis, y el trabajo de Modis giraba en torno a acelerar el cambio, Modis se distanció de la tesis de Kurzweil de una "singularidad tecnológica", alegando que carece de rigor científico. [62]

En una contabilidad empírica detallada, El progreso de la informáticaWilliam Nordhaus argumentó que, antes de 1940, las computadoras siguieron el crecimiento mucho más lento de una economía industrial tradicional, rechazando así las extrapolaciones de la ley de Moore a las computadoras del siglo XIX. [63]

En un artículo de 2007, Schmidhuber afirmó que la frecuencia de "eventos notables" subjetivamente parece estar acercándose a una singularidad del siglo XXI, pero advirtió a los lectores que tomen tales tramas de eventos subjetivos con un grano de sal: quizás diferencias en la memoria de recientes y lejanos Los eventos podrían crear la ilusión de un cambio acelerado donde no existe. [64]

Paul Allen argumentó lo contrario de los retornos acelerados, el freno de la complejidad [26] cuanto más avanza la ciencia hacia la comprensión de la inteligencia, más difícil se vuelve hacer un progreso adicional. Un estudio del número de patentes muestra que la creatividad humana no muestra rendimientos acelerados, pero de hecho, como sugiere Joseph Tainter en su El colapso de sociedades complejas, [65] una ley de rendimientos decrecientes. El número de patentes por mil alcanzó su punto máximo en el período comprendido entre 1850 y 1900 y ha ido disminuyendo desde entonces. [60] El crecimiento de la complejidad eventualmente se vuelve autolimitante y conduce a un "colapso generalizado de los sistemas".

Jaron Lanier refuta la idea de que la Singularidad es inevitable. Afirma: "No creo que la tecnología se esté creando a sí misma. No es un proceso autónomo". [66] Continúa afirmando: "La razón para creer en la agencia humana sobre el determinismo tecnológico es que entonces se puede tener una economía en la que la gente se gane su propio camino e invente sus propias vidas. Si se estructura una sociedad en no Al enfatizar la agencia humana individual, operacionalmente es lo mismo que negar a las personas la influencia, la dignidad y la autodeterminación. abrazar [la idea de la singularidad] sería una celebración de la mala información y la mala política ". [66]

El economista Robert J. Gordon, en El ascenso y la caída del crecimiento estadounidense: el nivel de vida de los EE. UU. Desde la Guerra Civil (2016), señala que el crecimiento económico medido se desaceleró alrededor de 1970 y se desaceleró aún más desde la crisis financiera de 2007-2008, y argumenta que los datos económicos no muestran rastros de una Singularidad venidera como la imaginó el matemático I.J. Bueno. [67]

Además de las críticas generales al concepto de singularidad, varios críticos han planteado problemas con el gráfico icónico de Kurzweil. Una línea de crítica es que un gráfico logarítmico de esta naturaleza está intrínsecamente sesgado hacia un resultado lineal. Otros identifican sesgo de selección en los puntos que Kurzweil elige usar. Por ejemplo, el biólogo PZ Myers señala que muchos de los primeros "eventos" evolutivos se eligieron arbitrariamente. [68] Kurzweil ha refutado esto trazando los eventos evolutivos de 15 fuentes neutrales y mostrando que se ajustan a una línea recta en un gráfico logarítmico. El economista se burló del concepto con un gráfico extrapolando que el número de hojas de una maquinilla de afeitar, que ha aumentado a lo largo de los años de una a cinco, aumentará cada vez más rápido hasta el infinito. [69]

En el pasado se han producido cambios drásticos en la tasa de crecimiento económico debido a los avances tecnológicos. Basado en el crecimiento de la población, la economía se duplicó cada 250.000 años desde el Paleolítico hasta la Revolución Neolítica. La nueva economía agrícola se duplicó cada 900 años, un aumento notable. En la era actual, comenzando con la Revolución Industrial, la producción económica mundial se duplica cada quince años, sesenta veces más rápido que durante la era agrícola. Si el auge de la inteligencia sobrehumana provoca una revolución similar, argumenta Robin Hanson, uno esperaría que la economía se duplicara al menos trimestralmente y posiblemente semanalmente. [70]

Incertidumbre y riesgo Editar

El término "singularidad tecnológica" refleja la idea de que tal cambio puede ocurrir repentinamente y que es difícil predecir cómo funcionaría el nuevo mundo resultante. [71] [72] No está claro si una explosión de inteligencia que resulte en una singularidad sería beneficiosa o dañina, o incluso una amenaza existencial. [73] [74] Debido a que la IA es un factor importante en el riesgo de singularidad, varias organizaciones persiguen una teoría técnica de alinear los sistemas de objetivos de IA con los valores humanos, incluido el Future of Humanity Institute, el Machine Intelligence Research Institute, [71] el Centro de Inteligencia Artificial Compatible con los Humanos y el Instituto del Futuro de la Vida.

El físico Stephen Hawking dijo en 2014 que "El éxito en la creación de IA sería el evento más grande en la historia de la humanidad. Desafortunadamente, también podría ser el último, a menos que aprendamos a evitar los riesgos". [75] Hawking creía que en las próximas décadas, la IA podría ofrecer "beneficios y riesgos incalculables", como "tecnología que supere a los mercados financieros, que invente más a los investigadores humanos, que manipule a los líderes humanos y que desarrolle armas que ni siquiera podemos entender". [75] Hawking sugirió que la inteligencia artificial debería tomarse más en serio y que debería hacerse más para prepararse para la singularidad: [75]

Entonces, frente a posibles futuros de beneficios y riesgos incalculables, los expertos seguramente están haciendo todo lo posible para garantizar el mejor resultado, ¿verdad? Incorrecto. Si una civilización alienígena superior nos enviara un mensaje diciendo: "Llegaremos en unas pocas décadas", ¿responderíamos simplemente "Está bien, llámanos cuando llegues, dejaremos las luces encendidas"? Probablemente no, pero esto es más o menos lo que está sucediendo con la IA.

Berglas (2008) afirma que no existe una motivación evolutiva directa para que una IA sea amigable con los humanos. La evolución no tiene una tendencia inherente a producir resultados valorados por los humanos, y hay pocas razones para esperar que un proceso de optimización arbitrario promueva un resultado deseado por la humanidad, en lugar de llevar inadvertidamente a una IA que se comporte de una manera no prevista por sus creadores. [76] [77] [78] Anders Sandberg también ha elaborado este escenario, abordando varios contraargumentos comunes. [79] El investigador de inteligencia artificial Hugo de Garis sugiere que las inteligencias artificiales pueden simplemente eliminar a la raza humana para acceder a recursos escasos, [48] [80] y los humanos serían impotentes para detenerlos. [81] Alternativamente, las IA desarrolladas bajo presión evolutiva para promover su propia supervivencia podrían superar a la humanidad. [52]

Bostrom (2002) analiza los escenarios de extinción humana y enumera la superinteligencia como una posible causa:

Cuando creamos la primera entidad superinteligente, podríamos cometer un error y darle metas que la lleven a aniquilar a la humanidad, asumiendo que su enorme ventaja intelectual le da el poder para hacerlo. Por ejemplo, podríamos elevar erróneamente un subobjetivo al estado de superobjetivo. Le decimos que resuelva un problema matemático, y cumple al convertir toda la materia del sistema solar en un dispositivo de cálculo gigante, matando en el proceso a la persona que hizo la pregunta.

Según Eliezer Yudkowsky, un problema importante en la seguridad de la inteligencia artificial es que es probable que la inteligencia artificial hostil sea mucho más fácil de crear que la inteligencia artificial amigable. Si bien ambos requieren grandes avances en el diseño de procesos de optimización recursiva, la IA amigable también requiere la capacidad de hacer que las estructuras de objetivos sean invariables bajo la superación personal (o la IA podría transformarse en algo hostil) y una estructura de objetivos que se alinee con los valores humanos y no automáticamente destruir la raza humana. Una IA hostil, por otro lado, puede optimizar para una estructura de objetivos arbitraria, que no necesita ser invariable bajo la auto-modificación. [82] Bill Hibbard (2014) error de texto: sin objetivo: CITEREFBill_Hibbard2014 (ayuda) propone un diseño de IA que evita varios peligros, incluido el autoengaño, [83] acciones instrumentales no deseadas, [46] [84] y la corrupción del generador de recompensas . [84] También analiza los impactos sociales de la IA [85] y las pruebas de IA. [86] Su libro de 2001 Máquinas superinteligentes aboga por la necesidad de educación pública sobre la IA y el control público de la IA. También propuso un diseño simple que era vulnerable a la corrupción del generador de recompensas.

Siguiente paso de la evolución sociobiológica Editar

Si bien la singularidad tecnológica generalmente se ve como un evento repentino, algunos estudiosos argumentan que la velocidad actual del cambio ya se ajusta a esta descripción. [ cita necesaria ]

Además, algunos argumentan que ya estamos en medio de una importante transición evolutiva que fusiona tecnología, biología y sociedad. La tecnología digital se ha infiltrado en el tejido de la sociedad humana hasta un grado de dependencia indiscutible y, a menudo, vital.

Un artículo de 2016 en Tendencias en ecología y evolución sostiene que "los seres humanos ya adoptan las fusiones de biología y tecnología. Pasamos la mayor parte de nuestro tiempo de vigilia comunicándonos a través de canales mediados digitalmente. Confiamos en la inteligencia artificial con nuestras vidas a través del sistema de frenos antibloqueo en los automóviles y los pilotos automáticos en los aviones. Con uno de cada tres matrimonios en Estados Unidos comenzando en línea, los algoritmos digitales también están desempeñando un papel en la vinculación y reproducción de la pareja humana ".

El artículo sostiene además que, desde la perspectiva de la evolución, varias Transiciones Importantes en la Evolución anteriores han transformado la vida a través de innovaciones en el almacenamiento y la replicación de información (ARN, ADN, multicelularidad y cultura y lenguaje). En la etapa actual de la evolución de la vida, la biosfera basada en carbono ha generado un sistema cognitivo (humanos) capaz de crear tecnología que resultará en una transición evolutiva comparable.

La información digital creada por los humanos ha alcanzado una magnitud similar a la información biológica en la biosfera. Desde la década de 1980, la cantidad de información digital almacenada se ha duplicado aproximadamente cada 2,5 años, alcanzando alrededor de 5 zettabytes en 2014 (5 × 10 21 bytes). [88]

En términos biológicos, hay 7.200 millones de seres humanos en el planeta, cada uno con un genoma de 6.200 millones de nucleótidos. Dado que un byte puede codificar cuatro pares de nucleótidos, los genomas individuales de cada ser humano del planeta podrían codificarse en aproximadamente 1 × 10 19 bytes. El reino digital almacenó 500 veces más información que esta en 2014 (ver figura). Se estima que la cantidad total de ADN contenida en todas las células de la Tierra es de aproximadamente 5,3 × 10 37 pares de bases, lo que equivale a 1,325 × 10 37 bytes de información.

Si el crecimiento en el almacenamiento digital continúa a su tasa actual de 30-38% de crecimiento anual compuesto por año, [39] competirá con el contenido total de información contenido en todo el ADN de todas las células de la Tierra en unos 110 años. Esto representaría una duplicación de la cantidad de información almacenada en la biosfera durante un período total de sólo 150 años ". [87]

Implicaciones para la sociedad humana Editar

En febrero de 2009, bajo los auspicios de la Asociación para el Avance de la Inteligencia Artificial (AAAI), Eric Horvitz presidió una reunión de destacados científicos informáticos, investigadores de inteligencia artificial y roboticistas en Asilomar en Pacific Grove, California. El objetivo era discutir el impacto potencial de la posibilidad hipotética de que los robots pudieran volverse autosuficientes y capaces de tomar sus propias decisiones. Discutieron hasta qué punto las computadoras y los robots podrían adquirir autonomía y hasta qué punto podrían usar esas habilidades para representar amenazas o peligros. [89]

Algunas máquinas están programadas con varias formas de semiautonomía, incluida la capacidad de localizar sus propias fuentes de energía y elegir objetivos para atacar con armas. Además, algunos virus informáticos pueden evadir la eliminación y, según los científicos presentes, se podría decir que han alcanzado una etapa de "cucaracha" en la inteligencia de las máquinas. Los asistentes a la conferencia señalaron que la autoconciencia como se describe en la ciencia ficción es probablemente poco probable, pero que existen otros peligros y trampas potenciales. [89]

Frank S. Robinson predice que una vez que los humanos logren una máquina con la inteligencia de un ser humano, los problemas científicos y tecnológicos serán abordados y resueltos con una capacidad intelectual muy superior a la de los humanos. Señala que los sistemas artificiales pueden compartir datos más directamente que los humanos, y predice que esto resultaría en una red global de superinteligencia que empequeñecería la capacidad humana. [90] Robinson también analiza cuán enormemente diferente sería el futuro después de tal explosión de inteligencia. Un ejemplo de esto es la energía solar, donde la Tierra recibe mucha más energía solar de la que captura la humanidad, por lo que capturar más de esa energía solar sería una gran promesa para el crecimiento de la civilización.

En un escenario de despegue difícil, un AGI se auto-mejora rápidamente, "tomando el control" del mundo (quizás en cuestión de horas), demasiado rápido para una corrección de errores significativa iniciada por humanos o para un ajuste gradual de los objetivos del AGI. En un escenario de despegue suave, AGI todavía se vuelve mucho más poderoso que la humanidad, pero a un ritmo similar al humano (tal vez en el orden de décadas), en una escala de tiempo donde la interacción humana y la corrección en curso pueden dirigir de manera efectiva el desarrollo de AGI. [92] [93]

Ramez Naam se opone a un despegue difícil. Ha señalado que ya vemos la superación personal recursiva de superinteligencias, como las corporaciones. Intel, por ejemplo, tiene "la capacidad intelectual colectiva de decenas de miles de humanos y probablemente millones de núcleos de CPU para. ¡Diseñar mejores CPU!" Sin embargo, esto no ha llevado a un despegue difícil, sino a un despegue suave en la forma de la ley de Moore. [94] Naam señala además que la complejidad computacional de la inteligencia superior puede ser mucho mayor que la lineal, de modo que "crear una mente de inteligencia 2 probablemente sea más más del doble que crear una mente inteligente 1. "[95]

J. Storrs Hall cree que "muchos de los escenarios más comúnmente vistos para el despegue rápido durante la noche son circulares; parecen asumir capacidades hiperhumanas en el punto de partida del proceso de superación personal "para que una IA pueda realizar las mejoras dramáticas y generales de dominio necesarias para el despegue. Hall sugiere que, en lugar de mejorar de forma recursiva su hardware, software e infraestructura por sí solo, un La IA incipiente estaría mejor si se especializara en un área donde era más efectiva y luego comprara los componentes restantes en el mercado, porque la calidad de los productos en el mercado mejora continuamente, y la IA tendría dificultades para mantenerse al día con el corte. tecnología de punta utilizada por el resto del mundo. [96]

Ben Goertzel está de acuerdo con la sugerencia de Hall de que una nueva IA a nivel humano haría bien en usar su inteligencia para acumular riqueza. Los talentos de la IA podrían inspirar a empresas y gobiernos a difundir su software en la sociedad. Goertzel se muestra escéptico ante un despegue difícil de cinco minutos, pero especula que un despegue del nivel humano al sobrehumano del orden de cinco años es razonable. Goerzel se refiere a este escenario como un "despegue semiduro". [97]

Max More no está de acuerdo, argumentando que si solo hubiera unas pocas IA superrápidas a nivel humano, no cambiarían radicalmente el mundo, ya que seguirían dependiendo de otras personas para hacer las cosas y seguirían teniendo limitaciones cognitivas humanas. Incluso si todas las IA superrápidas trabajaran en el aumento de la inteligencia, no está claro por qué lo harían mejor de manera discontinua que los científicos cognitivos humanos existentes en la producción de inteligencia sobrehumana, aunque la tasa de progreso aumentaría. More sostiene además que una superinteligencia no transformaría el mundo de la noche a la mañana: una superinteligencia necesitaría involucrarse con los sistemas humanos lentos existentes para lograr impactos físicos en el mundo. "La necesidad de colaboración, de organización y de poner ideas en cambios físicos garantizará que todas las reglas antiguas no se descarten de la noche a la mañana o incluso dentro de años". [98]

En su libro de 2005, La singularidad está cerca, Kurzweil sugiere que los avances médicos permitirían a las personas proteger sus cuerpos de los efectos del envejecimiento, haciendo que la esperanza de vida sea ilimitada. Kurzweil sostiene que los avances tecnológicos en la medicina nos permitirían reparar y reemplazar continuamente los componentes defectuosos de nuestro cuerpo, prolongando la vida hasta una edad indeterminada. [99] Kurzweil refuerza aún más su argumento al discutir los avances actuales en bioingeniería. Kurzweil sugiere terapia génica somática después de virus sintéticos con información genética específica, el siguiente paso sería aplicar esta tecnología a la terapia génica, reemplazando el ADN humano con genes sintetizados. [100]

K. Eric Drexler, uno de los fundadores de la nanotecnología, postuló dispositivos de reparación celular, incluidos los que operan dentro de las células y utilizan máquinas biológicas hasta ahora hipotéticas, en su libro de 1986 Motores de la creación.

Según Richard Feynman, fue su ex alumno de posgrado y colaborador Albert Hibbs quien originalmente le sugirió (alrededor de 1959) la idea de un médico uso para las micromáquinas teóricas de Feynman. Hibbs sugirió que algunas máquinas de reparación podrían algún día reducir su tamaño hasta el punto de que, en teoría, sería posible (como dijo Feynman) "tragarse al médico". La idea se incorporó al ensayo de Feynman de 1959 Hay mucho espacio en la parte inferior. [101]

Más allá de simplemente extender la vida operativa del cuerpo físico, Jaron Lanier aboga por una forma de inmortalidad llamada "Ascensión Digital" que involucra a "personas que mueren en la carne y se cargan en una computadora y permanecen conscientes". [102]

Un artículo de Mahendra Prasad, publicado en Revista AI, afirma que el matemático del siglo XVIII, Marqués de Condorcet, fue la primera persona en formular hipótesis y modelar matemáticamente una explosión de inteligencia y sus efectos sobre la humanidad. [103]

Una primera descripción de la idea se hizo en el cuento de 1932 de John Wood Campbell Jr. "La última evolución".

En su obituario de 1958 para John von Neumann, Ulam recordó una conversación con von Neumann sobre el "progreso cada vez más acelerado de la tecnología y los cambios en el modo de vida humana, que da la apariencia de acercarse a alguna singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos, tal como los conocemos, no podían continuar ". [5]

En 1965, Good escribió su ensayo postulando una "explosión de inteligencia" de auto-mejoramiento recursivo de la inteligencia de una máquina.

En 1981, Stanisław Lem publicó su novela de ciencia ficción Golem XIV. Describe una computadora de inteligencia artificial militar (Golem XIV) que obtiene la conciencia y comienza a aumentar su propia inteligencia, avanzando hacia la singularidad tecnológica personal. Golem XIV fue creado originalmente para ayudar a sus constructores en la lucha en las guerras, pero a medida que su inteligencia avanza a un nivel mucho más alto que el de los humanos, deja de estar interesado en los requisitos militares porque los encuentra carentes de consistencia lógica interna.

En 1983, Vernor Vinge popularizó enormemente la explosión de inteligencia de Good en varios escritos, abordando por primera vez el tema en forma impresa en la edición de enero de 1983 de Omni revista. En este artículo de opinión, Vinge parece haber sido el primero en usar el término "singularidad" de una manera que estaba específicamente ligada a la creación de máquinas inteligentes: [104] [105]

Pronto crearemos inteligencias mayores que las nuestras. Cuando esto suceda, la historia humana habrá alcanzado una especie de singularidad, una transición intelectual tan impenetrable como el espacio-tiempo anudado en el centro de un agujero negro, y el mundo pasará mucho más allá de nuestra comprensión. Esta singularidad, creo, ya acecha a varios escritores de ciencia ficción. Hace imposible una extrapolación realista a un futuro interestelar. Para escribir una historia ambientada a más de un siglo de aquí, se necesita una guerra nuclear en el medio. para que el mundo siga siendo inteligible.

En 1985, en "La escala de tiempo de la inteligencia artificial", el investigador de inteligencia artificial Ray Solomonoff articuló matemáticamente la noción relacionada de lo que llamó un "punto infinito": si una comunidad de investigación de IA auto-mejorantes a nivel humano tarda cuatro años en duplicarse su propia velocidad, luego dos años, luego un año y así sucesivamente, sus capacidades aumentan infinitamente en un tiempo finito. [6] [106]

El artículo de Vinge de 1993 "La singularidad tecnológica venidera: cómo sobrevivir en la era poshumana", [7] se difundió ampliamente en Internet y ayudó a popularizar la idea. [107] Este artículo contiene la declaración, "Dentro de treinta años, tendremos los medios tecnológicos para crear inteligencia sobrehumana. Poco después, la era humana terminará". Vinge sostiene que los autores de ciencia ficción no pueden escribir personajes realistas posteriores a la singularidad que superen el intelecto humano, ya que los pensamientos de tal intelecto estarían más allá de la capacidad de expresión de los humanos. [7]

En 2000, Bill Joy, un destacado tecnólogo y cofundador de Sun Microsystems, expresó su preocupación por los peligros potenciales de la singularidad. [44]

En 2005, Kurzweil publicó La singularidad está cerca. La campaña publicitaria de Kurzweil incluyó una aparición en El programa diario con Jon Stewart. [108]

En 2007, Eliezer Yudkowsky sugirió que muchas de las diversas definiciones que se han asignado a "singularidad" son mutuamente incompatibles en lugar de apoyarse mutuamente. [19] [109] Por ejemplo, Kurzweil extrapola las trayectorias tecnológicas actuales más allá de la llegada de la IA que se mejora a sí misma o la inteligencia sobrehumana, lo que, según Yudkowsky, representa una tensión tanto con el ascenso discontinuo propuesto por I. J. Good en la inteligencia como con la tesis de Vinge sobre la imprevisibilidad. [19]

En 2009, Kurzweil y el fundador del X-Prize, Peter Diamandis, anunciaron el establecimiento de Singularity University, un instituto privado no acreditado cuya misión declarada es "educar, inspirar y capacitar a los líderes para que apliquen tecnologías exponenciales para abordar los grandes desafíos de la humanidad". [110] Financiada por Google, Autodesk, ePlanet Ventures y un grupo de líderes de la industria tecnológica, Singularity University tiene su sede en el Centro de Investigación Ames de la NASA en Mountain View, California. La organización sin fines de lucro ejecuta un programa de posgrado anual de diez semanas durante el verano que cubre diez tecnologías diferentes y pistas afines, y una serie de programas ejecutivos durante todo el año.

En 2007, el Comité Económico Conjunto del Congreso de los Estados Unidos publicó un informe sobre el futuro de la nanotecnología. Predice importantes cambios tecnológicos y políticos en el futuro a medio plazo, incluida una posible singularidad tecnológica. [111] [112] [113]

El expresidente de los Estados Unidos, Barack Obama, habló sobre la singularidad en su entrevista a Cableado en 2016: [114]

Una cosa de la que no hemos hablado demasiado, y solo quiero volver, es que realmente tenemos que pensar en las implicaciones económicas. Debido a que la mayoría de las personas no pasan mucho tiempo preocupándose por la singularidad en este momento, se preocupan por "Bueno, ¿mi trabajo será reemplazado por una máquina?"


3 La relación de la física con otras ciencias

(No hubo resumen para esta conferencia).

3–1 Introducción

La física es la ciencia más fundamental e integral, y ha tenido un efecto profundo en todo el desarrollo científico. De hecho, la física es el equivalente actual de lo que solía llamarse filosofía natural, de donde surgieron la mayoría de nuestras ciencias modernas. Los estudiantes de muchos campos se encuentran estudiando física debido al papel básico que desempeña en todos los fenómenos. En este capítulo trataremos de explicar cuáles son los problemas fundamentales de las otras ciencias, pero, por supuesto, es imposible en un espacio tan pequeño tratar realmente las cuestiones complejas, sutiles y hermosas de estos otros campos. La falta de espacio también impide que discutamos la relación de la física con la ingeniería, la industria, la sociedad y la guerra, o incluso la relación más notable entre las matemáticas y la física. (Las matemáticas no son una ciencia desde nuestro punto de vista, en el sentido de que no son natural Ciencias. La prueba de su validez no es un experimento.) Debemos, dicho sea de paso, dejar claro desde el principio que si una cosa no es una ciencia, no es necesariamente mala. Por ejemplo, el amor no es una ciencia. Entonces, si se dice que algo no es una ciencia, no significa que haya algo malo en ello, solo significa que no es una ciencia.

3–2 Química

La ciencia que quizás sea la más profundamente afectada por la física es la química. Históricamente, los primeros días de la química se ocuparon casi exclusivamente de lo que ahora llamamos química inorgánica, la química de las sustancias que no están asociadas con los seres vivos. Se requirió un análisis considerable para descubrir la existencia de muchos elementos y sus relaciones: cómo forman los diversos compuestos relativamente simples que se encuentran en las rocas, la tierra, etc. Esta química temprana fue muy importante para la física. La interacción entre las dos ciencias fue muy grande porque la teoría de los átomos fue corroborada en gran medida por experimentos de química. La teoría de la química, es decir, de las reacciones en sí, se resumió en gran medida en la tabla periódica de Mendeleev, que pone de manifiesto muchas relaciones extrañas entre los diversos elementos, y era la colección de reglas sobre qué sustancia se combina con cuál y cómo constituía la química inorgánica. Todas estas reglas fueron finalmente explicadas en principio por la mecánica cuántica, de modo que la química teórica es de hecho física. Por otro lado, se debe enfatizar que esta explicación es en principio. Ya hemos hablado de la diferencia entre conocer las reglas del juego de ajedrez y poder jugar. Así es que podemos conocer las reglas, pero no podemos jugar muy bien. Resulta muy difícil predecir con precisión lo que sucederá en una reacción química determinada, sin embargo, la parte más profunda de la química teórica debe terminar en la mecánica cuántica.

También hay una rama de la física y la química que fue desarrollada por ambas ciencias juntas y que es extremadamente importante. Este es el método de estadística que se aplica en una situación en la que existen leyes mecánicas, que se llama acertadamente mecánica estadística. En cualquier situación química interviene un gran número de átomos, y hemos visto que todos los átomos se mueven de un modo muy aleatorio y complicado. Si pudiéramos analizar cada colisión y ser capaces de seguir en detalle el movimiento de cada molécula, podríamos esperar descubrir qué sucedería, pero la gran cantidad de números necesarios para realizar un seguimiento de todas estas moléculas excede enormemente la capacidad de cualquier computadora. y, ciertamente, la capacidad de la mente, que era importante desarrollar un método para hacer frente a situaciones tan complicadas. La mecánica estadística, entonces, es la ciencia de los fenómenos del calor o termodinámica. La química inorgánica, como ciencia, ahora se reduce esencialmente a lo que se llama química física y química cuántica para estudiar la velocidad a la que ocurren las reacciones y lo que está sucediendo en detalle (¿Cómo chocan las moléculas? ¿Qué piezas vuelan primero? etc.) y la química cuántica para ayudarnos a comprender lo que sucede en términos de las leyes físicas.

La otra rama de la química es química Orgánica, la química de las sustancias asociadas con los seres vivos. Durante un tiempo se creyó que las sustancias asociadas con los seres vivos eran tan maravillosas que no podían fabricarse a mano a partir de materiales inorgánicos. Esto no es del todo cierto: son exactamente iguales a las sustancias que se producen en la química inorgánica, pero están implicadas disposiciones más complicadas de átomos. La química orgánica, obviamente, tiene una relación muy estrecha con la biología que suministra sus sustancias y con la industria y, además, gran parte de la química física y la mecánica cuántica pueden aplicarse tanto a compuestos orgánicos como inorgánicos. Sin embargo, los principales problemas de la química orgánica no están en estos aspectos, sino en el análisis y síntesis de las sustancias que se forman en los sistemas biológicos, en los seres vivos. Esto conduce imperceptiblemente, por pasos, hacia la bioquímica y luego hacia la biología misma o la biología molecular.

3–3 Biología

Así llegamos a la ciencia de biología, que es el estudio de los seres vivos. En los primeros días de la biología, los biólogos tuvieron que enfrentarse al problema puramente descriptivo de descubrir qué Había seres vivos, por lo que solo tenían que contar cosas como los pelos de las extremidades de las pulgas. Después de que estos asuntos se resolvieron con gran interés, los biólogos se dirigieron a la maquinaria dentro de los cuerpos vivos, primero desde un punto de vista burdo, naturalmente, porque se necesita un poco de esfuerzo para entrar en los detalles más finos.

Hubo una relación temprana interesante entre la física y la biología en la que la biología ayudó a la física en el descubrimiento de la Conservacion de energia, que fue demostrado por primera vez por Mayer en relación con la cantidad de calor absorbido y emitido por una criatura viviente.

Si miramos los procesos de la biología de los animales vivos más de cerca, vemos muchos Fenómenos físicos: la circulación de la sangre, bombas, presión, etc. Hay nervios: sabemos lo que pasa cuando pisamos una piedra puntiaguda, y que de una u otra forma la información va de la pierna hacia arriba. Es interesante cómo sucede eso. En su estudio de los nervios, los biólogos han llegado a la conclusión de que los nervios son tubos muy finos con una pared compleja que es muy delgada a través de esta pared la célula bombea iones, por lo que hay iones positivos en el exterior e iones negativos en el interior. , como un condensador. Ahora bien, esta membrana tiene una propiedad interesante si se "descarga" en un lugar, es decir, si algunos de los iones pudieran moverse por un lugar, de modo que el voltaje eléctrico se reduzca allí, esa influencia eléctrica se hace sentir sobre los iones en la vecindad, y afecta la membrana de tal manera que deja pasar los iones también en los puntos vecinos. Esto a su vez la afecta más adelante, etc., por lo que se produce una ola de "penetrabilidad" de la membrana que recorre la fibra cuando se "excita" en un extremo al pisar la piedra afilada. Esta onda es algo análoga a una larga secuencia de dominós verticales si se empuja el extremo uno, el otro empuja el siguiente, etc. Por supuesto, esto solo transmitirá un mensaje a menos que los dominós se coloquen de nuevo y de manera similar en la célula nerviosa. hay procesos que bombean los iones lentamente hacia afuera nuevamente, para preparar el nervio para el siguiente impulso. De modo que sabemos lo que estamos haciendo (o al menos dónde estamos). Por supuesto, los efectos eléctricos asociados con este impulso nervioso pueden detectarse con instrumentos eléctricos, y debido a que están efectos eléctricos, obviamente la física de los efectos eléctricos ha tenido una gran influencia en la comprensión del fenómeno.

El efecto contrario es que, desde algún lugar del cerebro, se envía un mensaje a través de un nervio. ¿Qué sucede al final del nervio? Allí, el nervio se ramifica en pequeñas cosas, conectadas a una estructura cerca de un músculo, llamada placa terminal. Por razones que no se comprenden exactamente, cuando el impulso llega al final del nervio, se disparan pequeños paquetes de una sustancia química llamada acetilcolina (cinco o diez moléculas a la vez) que afectan la fibra muscular y la contraen, qué simple ! ¿Qué hace que un músculo se contraiga? Un músculo es una gran cantidad de fibras juntas que contienen dos sustancias diferentes, miosina y actomiosina, pero aún no se conoce la maquinaria por la cual la reacción química inducida por la acetilcolina puede modificar las dimensiones del músculo. Por tanto, se desconocen los procesos fundamentales en el músculo que producen los movimientos mecánicos.

La biología es un campo tan enorme que hay muchos otros problemas que no podemos mencionar en absoluto: problemas sobre cómo funciona la visión (qué hace la luz en el ojo), cómo funciona la audición, etc. (La forma en que pensando obras que discutiremos más adelante en psicología.) Ahora, estas cosas concernientes a la biología que acabamos de discutir son, desde un punto de vista biológico, realmente no fundamentales, en el fondo de la vida, en el sentido de que incluso si las entendiéramos, todavía no lo haríamos. entender la vida misma. Para ilustrarlo: los hombres que estudian los nervios sienten que su trabajo es muy importante, porque después de todo no se pueden tener animales sin nervios. Pero tu pueden tengo vida sin nervios. Las plantas no tienen nervios ni músculos, pero están funcionando, están vivas, igual. Entonces, para los problemas fundamentales de la biología, debemos mirar más profundamente cuando lo hacemos, descubrimos que todos los seres vivos tienen muchas características en común. La característica más común es que están hechos de células, dentro de cada uno de los cuales hay una compleja maquinaria para hacer las cosas químicamente. En las células vegetales, por ejemplo, existe una maquinaria para captar luz y generar glucosa, que se consume en la oscuridad para mantener viva la planta. Cuando se come la planta, la propia glucosa genera en el animal una serie de reacciones químicas muy relacionadas con la fotosíntesis (y su efecto opuesto en la oscuridad) en las plantas.

En las células de los sistemas vivos hay muchas reacciones químicas elaboradas, en las que un compuesto se transforma en otro y en otro. Para dar una idea de los enormes esfuerzos que se han realizado en el estudio de la bioquímica, el cuadro de la figura 3-1 resume nuestro conocimiento hasta la fecha sobre una pequeña parte de las muchas series de reacciones que ocurren en las células, tal vez un porcentaje o así de eso.

Aquí vemos toda una serie de moléculas que cambian de una a otra en una secuencia o ciclo de pasos bastante pequeños. Se llama ciclo de Krebs, ciclo respiratorio. Cada uno de los productos químicos y cada uno de los pasos es bastante simple, en términos de qué cambio se realiza en la molécula, pero, y este es un descubrimiento de importancia central en bioquímica, estos cambios son relativamente difícil de lograr en un laboratorio. Si tenemos una sustancia y otra sustancia muy similar, la una no se convierte simplemente en la otra, porque las dos formas suelen estar separadas por una barrera de energía o "colina". Considere esta analogía: si quisiéramos llevar un objeto de un lugar a otro, al mismo nivel pero al otro lado de una colina, podríamos empujarlo hacia la cima, pero para hacerlo se requiere la adición de algo de energía. Por lo tanto, la mayoría de las reacciones químicas no ocurren, porque existe lo que se llama un energía de activación en la forma. Para agregar un átomo extra a nuestra sustancia química, es necesario que lo obtengamos cerrar lo suficiente como para que se produzca un reordenamiento, entonces se pegará. Pero si no podemos darle suficiente energía para acercarlo lo suficiente, no se completará, simplemente subirá la “colina” y volverá a bajar. Sin embargo, si pudiéramos literalmente tomar las moléculas en nuestras manos y empujar y jalar los átomos de tal manera que abriéramos un agujero para dejar entrar el nuevo átomo, y luego dejar que retroceda, habríamos encontrado otra manera, alrededor colina, que no requeriría energía extra, y la reacción sería fácil. Ahora en realidad están, en las celdas, muy moléculas grandes, mucho más grandes que aquellas cuyos cambios hemos estado describiendo, que de alguna manera complicada mantienen las moléculas más pequeñas en la forma correcta, de modo que la reacción puede ocurrir fácilmente. Estas cosas muy grandes y complicadas se llaman enzimas. (Primero se llamaron fermentos, porque originalmente se descubrieron en la fermentación del azúcar. De hecho, algunas de las primeras reacciones del ciclo se descubrieron allí). En presencia de una enzima, la reacción se irá.

Una enzima está hecha de otra sustancia llamada proteína. Las enzimas son muy grandes y complicadas, y cada una es diferente, cada una está construida para controlar una determinada reacción especial. Los nombres de las enzimas se escriben en la figura 3-1 en cada reacción. (A veces, la misma enzima puede controlar dos reacciones). Hacemos hincapié en que las enzimas en sí mismas no participan directamente en la reacción. No cambian, simplemente dejan que un átomo vaya de un lugar a otro. Una vez hecho esto, la enzima está lista para pasar a la siguiente molécula, como una máquina en una fábrica. Por supuesto, debe haber un suministro de ciertos átomos y una forma de deshacerse de otros átomos. Tomemos el hidrógeno, por ejemplo: hay enzimas que tienen unidades especiales que transportan el hidrógeno para todas las reacciones químicas. Por ejemplo, hay tres o cuatro enzimas reductoras de hidrógeno que se utilizan durante todo nuestro ciclo en diferentes lugares. Es interesante que la maquinaria que libera algo de hidrógeno en un lugar tomará ese hidrógeno y lo usará en otro lugar.

La característica más importante del ciclo de la figura 3-1 es la transformación de GDP a GTP (guanosina-difosfato en guanosina-trifosfato) porque una sustancia tiene mucha más energía que la otra. Así como hay una "caja" en ciertas enzimas para transportar átomos de hidrógeno, existen energía-Llevando “cajas” que involucran al grupo trifosfato. Entonces, GTP tiene más energía que GDP y si el ciclo va en una dirección, estamos produciendo moléculas que tienen energía extra y que pueden conducir algún otro ciclo que requiere energía, por ejemplo, la contracción del músculo. El músculo no se contraerá a menos que haya GTP.Podemos tomar fibra muscular, ponerla en agua y agregar GTP, y las fibras se contraen, cambiando GTP a GDP si están presentes las enzimas adecuadas. Entonces, el sistema real está en la transformación GDP-GTP en la oscuridad, el GTP que se ha almacenado durante el día se usa para ejecutar todo el ciclo en sentido inverso. A una enzima, como ve, no le importa en qué dirección vaya la reacción, porque si lo hiciera violaría una de las leyes de la física.

La física es de gran importancia en biología y otras ciencias por otra razón más, que tiene que ver con técnicas experimentales. De hecho, si no fuera por el gran desarrollo de la física experimental, estos cuadros bioquímicos no se conocerían en la actualidad. La razón es que la herramienta más útil de todas para analizar este sistema increíblemente complejo es etiqueta los átomos que se utilizan en las reacciones. Por lo tanto, si pudiéramos introducir en el ciclo algo de dióxido de carbono que tenga una "marca verde", y luego medir después de tres segundos donde está la marca verde, y nuevamente medir después de diez segundos, etc., podríamos trazar el curso. de las reacciones. ¿Qué son las “marcas verdes”? Ellos son diferentes isótopos. Recordamos que las propiedades químicas de los átomos están determinadas por el número de electrones, no por la masa del núcleo. Pero puede haber, por ejemplo, en el carbono, seis neutrones o siete neutrones, junto con los seis protones que tienen todos los núcleos de carbono. Químicamente, los dos átomos C $ ^ <12> $ y C $ ^ <13> $ son iguales, pero difieren en peso y tienen diferentes propiedades nucleares, por lo que son distinguibles. Al usar estos isótopos de diferentes pesos, o incluso isótopos radiactivos como C $ ^ <14> $, que proporcionan un medio más sensible para rastrear cantidades muy pequeñas, es posible rastrear las reacciones.

Ahora, volvamos a la descripción de enzimas y proteínas. No todas las proteínas son enzimas, pero todas las enzimas son proteínas. Hay muchas proteínas, como las proteínas del músculo, las proteínas estructurales que se encuentran, por ejemplo, en el cartílago y el cabello, la piel, etc., que no son en sí mismas enzimas. Sin embargo, las proteínas son una sustancia muy característica de la vida: en primer lugar, constituyen todas las enzimas y, en segundo lugar, constituyen gran parte del resto de la materia viva. Las proteínas tienen una estructura muy interesante y sencilla. Son una serie o cadena de diferentes aminoácidos. Hay veinte aminoácidos diferentes, y todos pueden combinarse entre sí para formar cadenas en las que la columna vertebral es CO-NH, etc. Las proteínas no son más que cadenas de varios de estos veinte aminoácidos. Cada uno de los aminoácidos probablemente tiene algún propósito especial. Algunos, por ejemplo, tienen un átomo de azufre en un lugar determinado cuando dos átomos de azufre están en la misma proteína, forman un enlace, es decir, unen la cadena en dos puntos y forman un bucle. Otro tiene átomos de oxígeno adicionales que lo convierten en una sustancia ácida, otro tiene una característica básica. Algunos de ellos tienen grandes grupos colgando a un lado, por lo que ocupan mucho espacio. Uno de los aminoácidos, llamado prolina, no es realmente un aminoácido, sino un iminoácido. Hay una ligera diferencia, con el resultado de que cuando la prolina está en la cadena, hay una torcedura en la cadena. Si quisiéramos fabricar una proteína en particular, daríamos estas instrucciones: coloque uno de esos ganchos de azufre aquí a continuación, agregue algo para ocupar espacio y luego coloque algo para poner un nudo en la cadena. De esta manera, obtendremos una cadena de aspecto complicado, enganchados y con una estructura compleja, presumiblemente, esta es solo la forma en que se fabrican todas las diversas enzimas. Uno de los grandes triunfos de los últimos tiempos (desde 1960), fue por fin descubrir la disposición atómica espacial exacta de ciertas proteínas, que involucran unos cincuenta y seis o sesenta aminoácidos seguidos. Más de mil átomos (más cerca de dos mil, si contamos los átomos de hidrógeno) se han ubicado en un patrón complejo en dos proteínas. El primero fue la hemoglobina. Uno de los aspectos tristes de este descubrimiento es que no podemos ver nada del patrón, no entendemos por qué funciona como lo hace. Por supuesto, ese es el próximo problema a atacar.

Otro problema es ¿cómo saben las enzimas qué deben ser? Una mosca de ojos rojos hace que una mosca de ojos rojos sea un bebé, por lo que la información de todo el patrón de enzimas para producir el pigmento rojo debe transmitirse de una mosca a la siguiente. Esto lo hace una sustancia en el núcleo de la célula, no una proteína, llamada ADN (abreviatura de ácido nucleico desoxirribosa). Esta es la sustancia clave que se transmite de una célula a otra (por ejemplo, los espermatozoides consisten principalmente en ADN) y transporta la información sobre cómo producir las enzimas. El ADN es el "plano". ¿Qué aspecto tiene el plano y cómo funciona? Primero, el plano debe poder reproducirse a sí mismo. En segundo lugar, debe poder instruir a la proteína. En cuanto a la reproducción, podríamos pensar que se desarrolla como la reproducción celular. Las células simplemente crecen y luego se dividen por la mitad. Entonces, ¿debe ser así con las moléculas de ADN que también crecen y se dividen por la mitad? Cada átomo ¡Ciertamente no crece más y se divide por la mitad! No, es imposible reproducir una molécula excepto de una manera más inteligente.

La estructura de la sustancia ADN se estudió durante mucho tiempo, primero químicamente para encontrar la composición y luego con rayos X para encontrar el patrón en el espacio. El resultado fue el siguiente descubrimiento notable: la molécula de ADN es un par de cadenas, trenzadas entre sí. La columna vertebral de cada una de estas cadenas, que son análogas a las cadenas de proteínas pero químicamente bastante diferentes, es una serie de grupos de azúcar y fosfato, como se muestra en la figura 3-2. Ahora vemos cómo la cadena puede contener instrucciones, porque si pudiéramos dividir esta cadena por la mitad, tendríamos una serie $ BAADC ldots $ y cada ser vivo podría tener una serie diferente. Por tanto, tal vez, de alguna manera, el instrucciones para la fabricación de proteínas están contenidas en las serie del ADN.

Unido a cada azúcar a lo largo de la línea, y uniendo las dos cadenas, hay ciertos pares de enlaces cruzados. Sin embargo, no todos son del mismo tipo, hay cuatro tipos, llamados adenina, timina, citosina y guanina, pero llamémoslos $ A $, $ B $, $ C $ y $ D $. Lo interesante es que solo ciertos pares pueden sentarse uno frente al otro, por ejemplo $ A $ con $ B $ y $ C $ con $ D $. Estos pares se colocan en las dos cadenas de tal manera que “encajan” y tienen una fuerte energía de interacción. Sin embargo, $ C $ no encajará con $ A $, y $ B $ no encajará con $ C $, solo encajarán en pares, $ A $ contra $ B $ y $ C $ contra $ D $. Por lo tanto, si una es $ C $, la otra debe ser $ D $, etc. Cualesquiera que sean las letras en una cadena, cada una debe tener su letra complementaria específica en la otra cadena.

¿Qué pasa entonces con la reproducción? Supongamos que dividimos esta cadena en dos. ¿Cómo podemos hacer otro igual? Si, en las sustancias de las células, hay un departamento de fabricación que genera fosfato, azúcar y unidades $ A $, $ B $, $ C $, $ D $ no conectadas en una cadena, las únicas que se adjuntarán a nuestra cadena dividida serán los correctos, los complementos de $ BAADC ldots $, es decir, $ ABBCD ldots $ Por lo tanto, lo que sucede es que la cadena se divide por la mitad durante la división celular, una mitad finalmente para ir con una celda, la otra mitad para terminar en la otra celda cuando se separa, se forma una nueva cadena complementaria por cada mitad de cadena.

Luego viene la pregunta, precisamente, ¿cómo determina el orden de las unidades $ A $, $ B $, $ C $, $ D $ la disposición de los aminoácidos en la proteína? Este es el problema central sin resolver de la biología actual. Sin embargo, las primeras pistas, o piezas de información, son las siguientes: hay en la célula partículas diminutas llamadas ribosomas, y ahora se sabe que ese es el lugar donde se producen las proteínas. Pero los ribosomas no están en el núcleo, donde están el ADN y sus instrucciones. Algo parece estar pasando. Sin embargo, también se sabe que del ADN salen pequeños fragmentos de moléculas, no tan largos como la gran molécula de ADN que transporta toda la información en sí, sino como una pequeña sección de ella. Esto se llama ARN, pero no es esencial. Es una especie de copia del ADN, una copia corta. El ARN, que de alguna manera transmite un mensaje sobre qué tipo de proteína fabricar, pasa al ribosoma conocido. Cuando llega allí, la proteína se sintetiza en el ribosoma. Eso también se sabe. Sin embargo, aún se desconocen los detalles de cómo entran y se ordenan los aminoácidos de acuerdo con un código que está en el ARN. No sabemos leerlo. Si supiéramos, por ejemplo, la "alineación" $ A $, $ B $, $ C $, $ C $, $ A $, no podríamos decirle qué proteína se va a hacer.

Ciertamente, ningún tema o campo está progresando más en tantos frentes en el momento presente que la biología, y si tuviéramos que nombrar el supuesto más poderoso de todos, que lleva a uno y otro en un intento de entender la vida, es que todas las cosas están hechas de átomos, y que todo lo que hacen los seres vivos puede entenderse en términos de las sacudidas y contoneos de los átomos.

3-4 Astronomía

En esta rápida explicación del mundo entero, debemos volver ahora a la astronomía. La astronomía es más antigua que la física. De hecho, hizo que la física comenzara mostrando la hermosa simplicidad del movimiento de las estrellas y los planetas, cuya comprensión fue la comienzo de la física. Pero el descubrimiento más notable de toda la astronomía es que las estrellas están formadas por átomos del mismo tipo que los de la tierra. 1 ¿Cómo se hizo esto? Los átomos liberan luz que tiene frecuencias definidas, algo así como el timbre de un instrumento musical, que tiene tonos o frecuencias de sonido definidas. Cuando escuchamos varios tonos diferentes, podemos distinguirlos, pero cuando miramos con nuestros ojos una mezcla de colores, no podemos distinguir las partes de las que se hizo, porque el ojo no es tan discernidor como el oído en este caso. conexión. Sin embargo, con un espectroscopio pueden Analizamos las frecuencias de las ondas de luz y de esta manera podemos ver las melodías mismas de los átomos que se encuentran en las diferentes estrellas. De hecho, dos de los elementos químicos fueron descubiertos en una estrella antes de ser descubiertos en la tierra. El helio se descubrió en el sol, de ahí su nombre, y el tecnecio se descubrió en ciertas estrellas frías. Esto, por supuesto, nos permite avanzar en la comprensión de las estrellas, porque están formadas por los mismos tipos de átomos que hay en la Tierra. Ahora sabemos mucho sobre los átomos, especialmente en cuanto a su comportamiento en condiciones de alta temperatura pero no muy gran densidad, por lo que podemos analizar por mecánica estadística el comportamiento de la sustancia estelar. Aunque no podemos reproducir las condiciones en la tierra, utilizando las leyes físicas básicas, a menudo podemos decir con precisión, o muy de cerca, lo que sucederá. De modo que la física ayuda a la astronomía. Por extraño que parezca, entendemos la distribución de la materia en el interior del sol mucho mejor de lo que entendemos el interior de la tierra. Que pasa dentro una estrella se comprende mejor de lo que uno podría suponer por la dificultad de tener que mirar un puntito de luz a través de un telescopio, porque podemos calcular lo que deberían hacer los átomos de las estrellas en la mayoría de las circunstancias.

Uno de los descubrimientos más impresionantes fue el origen de la energía de las estrellas, que hace que sigan ardiendo. Uno de los hombres que descubrió esto salió con su novia la noche después de darse cuenta de que reacciones nucleares debe estar sucediendo en las estrellas para hacerlas brillar. Ella dijo: "¡Mira lo bonitas que brillan las estrellas!" Dijo: "Sí, y ahora mismo soy el único hombre en el mundo que sabe por qué brillan ". Ella simplemente se rió de él. No le impresionó estar con el único hombre que, en ese momento, sabía por qué brillan las estrellas. Bueno, es triste estar solo, pero así es en este mundo.

Es la “combustión” nuclear de hidrógeno la que suministra la energía del sol, el hidrógeno se convierte en helio. Además, en última instancia, la fabricación de varios elementos químicos procede en los centros de las estrellas, a partir del hidrógeno. La materia de la cual nosotros se hacen, se “cocinan” una vez, en una estrella, y se escupen. ¿Como sabemos? Porque hay una pista. La proporción de los diferentes isótopos: cuánto C $ ^ <12> $, cuánto C $ ^ <13> $, etc., es algo que nunca cambia por químico reacciones, porque las reacciones químicas son muy parecidas para los dos. Las proporciones son puramente el resultado de nuclear reacciones. Al observar las proporciones de los isótopos en la fría y muerta brasa que somos, podemos descubrir cuál es la horno fue como en el que se formó la materia de la que estamos hechos. Ese horno era como las estrellas, por lo que es muy probable que nuestros elementos se "formaran" en las estrellas y se escupieran en las explosiones que llamamos novas y supernovas. La astronomía está tan cerca de la física que estudiaremos muchas cosas astronómicas a medida que avanzamos.

3-5 Geología

Pasamos ahora a lo que se llama Ciencias de la Tierra, o geología. Primero, la meteorología y el clima. Por supuesto que el instrumentos de la meteorología son instrumentos físicos, y el desarrollo de la física experimental hizo posible estos instrumentos, como se explicó anteriormente. Sin embargo, el físico nunca ha elaborado satisfactoriamente la teoría de la meteorología. "Bueno", dices, "no hay nada más que aire, y conocemos las ecuaciones de los movimientos del aire". Sí. "Entonces, si conocemos el estado del aire hoy, ¿por qué no podemos averiguar el estado del aire mañana?" Primero, no De Verdad Sepa cuál es la condición hoy, porque el aire se arremolina y se retuerce por todas partes. Resulta muy sensible e incluso inestable. Si alguna vez ha visto el agua correr suavemente sobre una presa y luego convertirse en una gran cantidad de manchas y gotas al caer, comprenderá lo que quiero decir con inestable. Conoce el estado del agua antes de que pase por el aliviadero, es perfectamente lisa, pero en el momento en que comienza a caer, ¿dónde comienzan las gotas? ¿Qué determina qué tan grandes serán los bultos y dónde estarán? Eso no se sabe, porque el agua es inestable. Incluso una masa de aire en movimiento suave, al pasar por encima de una montaña, se convierte en complejos remolinos y remolinos. En muchos campos encontramos esta situación de flujo turbulento que no podemos analizar hoy. ¡Rápidamente dejamos el tema del clima y hablamos de geología!

La pregunta básica de la geología es, ¿qué hace que la tierra sea como es? Los procesos más obvios están frente a sus propios ojos, los procesos de erosión de los ríos, los vientos, etc. Es bastante fácil entenderlos, pero por cada fragmento de erosión hay una cantidad igual de algo más. Las montañas no son más bajas hoy, en promedio, que en el pasado. Debe haber montañaformando Procesos. Descubrirás, si estudias geología, que hay están procesos de formación de montañas y vulcanismo, que nadie comprende pero que es la mitad de la geología. El fenómeno de los volcanes realmente no se comprende. Lo que provoca un terremoto, en última instancia, no se comprende. Se entiende que si algo empuja a otra cosa, se rompe y se desliza, eso está bien. Pero, ¿qué empuja y por qué? La teoría es que hay corrientes en el interior de la tierra —corrientes circulantes, debido a la diferencia de temperatura dentro y fuera— que, en su movimiento, empujan ligeramente la superficie. Por lo tanto, si hay dos circulaciones opuestas una al lado de la otra, la materia se acumulará en la región donde se encuentran y formará cinturones de montañas que se encuentran en condiciones infelices de estrés y, por lo tanto, producirán volcanes y terremotos.

¿Qué pasa con el interior de la tierra? Se sabe mucho sobre la velocidad de las ondas sísmicas a través de la tierra y la densidad de distribución de la tierra. Sin embargo, los físicos no han podido obtener una buena teoría sobre qué tan densa debería ser una sustancia a las presiones que se esperarían en el centro de la Tierra. En otras palabras, no podemos descifrar muy bien las propiedades de la materia en estas circunstancias. Nos va mucho menos bien con la tierra que con las condiciones de la materia en las estrellas. Las matemáticas involucradas parecen demasiado difíciles, hasta ahora, pero quizás no pasará mucho tiempo antes de que alguien se dé cuenta de que es un problema importante y realmente lo resuelva. El otro aspecto, por supuesto, es que incluso si supiéramos la densidad, no podemos averiguar las corrientes circulantes. Tampoco podemos realmente averiguar las propiedades de las rocas a alta presión. No podemos decir qué tan rápido deben "ceder" las rocas, lo que debe resolverse mediante un experimento.

3-6 Psicología

A continuación, consideramos la ciencia de psicología. Dicho sea de paso, el psicoanálisis no es una ciencia: es en el mejor de los casos un proceso médico, y tal vez incluso más como un curandero. Tiene una teoría sobre las causas de la enfermedad: muchos "espíritus" diferentes, etc. El médico brujo tiene la teoría de que una enfermedad como la malaria es causada por un espíritu que llega al aire; no se cura sacudiendo una serpiente sobre él. , pero la quinina ayuda a la malaria. Entonces, si está enfermo, le aconsejaría que vaya al médico brujo porque es el hombre de la tribu que más sabe sobre la enfermedad, por otro lado, su conocimiento no es ciencia. El psicoanálisis no se ha comprobado cuidadosamente mediante experimentos, y no hay forma de encontrar una lista del número de casos en los que funciona, el número de casos en los que no funciona, etc.

Las otras ramas de la psicología, que involucran cosas como la fisiología de la sensación, lo que sucede en el ojo y lo que sucede en el cerebro, son, si lo desea, menos interesantes. Pero se ha logrado un progreso pequeño pero real en su estudio. Uno de los problemas técnicos más interesantes puede o no llamarse psicología. El problema central de la mente, por así decirlo, o del sistema nervioso, es el siguiente: cuando un animal aprende algo, puede hacer algo diferente de lo que podía hacer antes, y su célula cerebral también debe haber cambiado, si está hecha de átomos. ¿En qué se diferencia? No sabemos dónde buscar, ni qué buscar, cuando se memoriza algo. No sabemos qué significa, o qué cambio hay en el sistema nervioso, cuando se aprende un hecho. Este es un problema muy importante que no se ha resuelto en absoluto. Sin embargo, suponiendo que haya algún tipo de memoria, el cerebro es una masa tan enorme de cables y nervios interconectados que probablemente no pueda analizarse de manera sencilla. Hay una analogía de esto con las máquinas informáticas y los elementos informáticos, en el sentido de que también tienen muchas líneas y tienen algún tipo de elemento, análogo, quizás, a la sinapsis, o la conexión de un nervio a otro. Este es un tema muy interesante que no tenemos tiempo para discutir más a fondo: la relación entre el pensamiento y las máquinas de computación.Debe tenerse en cuenta, por supuesto, que este tema nos dirá muy poco acerca de las complejidades reales del comportamiento humano ordinario. Todos los seres humanos son tan diferentes. Pasará mucho tiempo antes de que lleguemos allí. Debemos empezar mucho más atrás. Si pudiéramos siquiera averiguar cómo perro funciona, hubiéramos ido bastante lejos. Los perros son más fáciles de entender, pero nadie sabe todavía cómo funcionan los perros.

3–7 ¿Cómo llegó a ser así?

Para que la física sea útil a otras ciencias en un teórico De otra manera, salvo en la invención de instrumentos, la ciencia en cuestión debe proporcionar al físico una descripción del objeto en el lenguaje de un físico. Pueden decir “¿por qué salta una rana?” Y el físico no puede responder. Si le dicen qué es una rana, que hay tantas moléculas, que hay un nervio aquí, etc., eso es diferente. Si nos dicen, más o menos, cómo es la Tierra o las estrellas, entonces podemos averiguarlo. Para que la teoría física sea de alguna utilidad, debemos saber dónde se encuentran los átomos. Para comprender la química, debemos saber exactamente qué átomos están presentes, porque de lo contrario no podemos analizarlos. Esa es solo una limitación, por supuesto.

Hay otro amable de un problema en las ciencias hermanas que no existe en la física podríamos llamarlo, a falta de un término mejor, la cuestión histórica. ¿Cómo ha llegado de esa manera? Si entendemos todo sobre biología, querremos saber cómo llegaron allí todas las cosas que hay en la tierra. Existe la teoría de la evolución, una parte importante de la biología. En geología, no solo queremos saber cómo se están formando las montañas, sino cómo se formó toda la tierra en un principio, el origen del sistema solar, etc. Eso, por supuesto, nos lleva a querer saber qué tipo de materia había en el mundo. ¿Cómo evolucionaron las estrellas? ¿Cuáles fueron las condiciones iniciales? Ese es el problema de la historia astronómica. Se ha descubierto mucho sobre la formación de estrellas, la formación de los elementos de los que fuimos hechos e incluso un poco sobre el origen del universo.

No hay ninguna cuestión histórica que se esté estudiando en física en la actualidad. No tenemos una pregunta: "Aquí están las leyes de la física, ¿cómo llegaron a ser así?" No imaginamos, por el momento, que las leyes de la física estén cambiando de alguna manera con el tiempo, que fueran diferentes en el pasado de lo que son en el presente. Por supuesto que ellos mayo ser, y en el momento en que los encontremos están, la cuestión histórica de la física se relacionará con el resto de la historia del universo, y luego el físico hablará de los mismos problemas que los astrónomos, geólogos y biólogos.

Finalmente, existe un problema físico común a muchos campos, que es muy antiguo y que no ha sido resuelto. No es el problema de encontrar nuevas partículas fundamentales, sino algo que quedó de hace mucho tiempo, más de cien años. Nadie en física ha sido capaz de analizarlo matemáticamente de manera satisfactoria a pesar de su importancia para las ciencias hermanas. Es el análisis de fluidos circulantes o turbulentos. Si observamos la evolución de una estrella, llega un punto en el que podemos deducir que va a iniciar la convección y, a partir de entonces, ya no podemos deducir lo que debería suceder. Unos millones de años después, la estrella explota, pero no podemos averiguar la razón. No podemos analizar el clima. No conocemos los patrones de movimientos que debería haber dentro de la tierra. La forma más simple del problema es tomar una tubería que es muy larga y empujar agua a través de ella a alta velocidad. Preguntamos: para empujar una determinada cantidad de agua a través de esa tubería, ¿cuánta presión se necesita? Nadie puede analizarlo desde los primeros principios y las propiedades del agua. Si el agua fluye muy lentamente, o si usamos una sustancia viscosa espesa como la miel, entonces podemos hacerlo bien. Lo encontrarás en tu libro de texto. Lo que realmente no podemos hacer es lidiar con el agua húmeda real que corre a través de una tubería. Ese es el problema central que deberíamos resolver algún día, y no lo hemos hecho.

Un poeta dijo una vez: "El universo entero está en una copa de vino". Probablemente nunca sabremos en qué sentido quiso decir eso, porque los poetas no escriben para ser entendidos. Pero es cierto que si miramos una copa de vino lo suficientemente de cerca, vemos el universo entero. Están las cosas de la física: el líquido retorcido que se evapora según el viento y el clima, los reflejos en el vidrio y nuestra imaginación agrega los átomos. El vidrio es una destilación de las rocas de la tierra, y en su composición vemos los secretos de la edad del universo y la evolución de las estrellas. ¿Qué extraña variedad de productos químicos hay en el vino? ¿Cómo llegaron a ser? Están los fermentos, las enzimas, los sustratos y los productos. Allí en el vino se encuentra la gran generalización: toda vida es fermentación. Nadie puede descubrir la química del vino sin descubrir, como hizo Louis Pasteur, la causa de muchas enfermedades. ¡Qué vivo es el clarete, presionando su existencia en la conciencia que lo observa! Si nuestras pequeñas mentes, por alguna conveniencia, dividen esta copa de vino, este universo, en partes —física, biología, geología, astronomía, psicología, etc.— ¡recuerden que la naturaleza no lo sabe! Así que volvamos a juntarlo todo, sin olvidar, en última instancia, para qué sirve. Que nos dé un placer final más: ¡bébelo y olvídate de todo!


¿Cómo sabemos que la aceleración gravitacional es igual a otras formas de aceleración?

A menudo se escucha que estar en una caja parado en un campo gravitacional es equivalente a estar en una caja que se acelera, y no hay forma de que un observador dentro de la caja sepa la diferencia.

Cómo sabemos esto? ¿Existe alguna posibilidad de que exista alguna cualidad en estar en un campo gravitacional que sea diferente de estar en una caja acelerada? ¿Qué experimentos se han realizado para confirmar que son equivalentes?

Básicamente, si se viola el principio de equivalencia, implica que los valores de ciertas constantes fundamentales cambian con el tiempo. Estos cambios no se han observado.

El principio de equivalencia de Einstein se puede probar buscando la variación de constantes adimensionales y relaciones de masa. Los mejores límites actuales para la variación de las constantes fundamentales se han establecido principalmente mediante el estudio del reactor de fisión nuclear natural de Oklo, donde se ha demostrado que reacciones nucleares similares a las que observamos hoy se produjeron bajo tierra hace aproximadamente dos mil millones de años. Estas reacciones son extremadamente sensibles a los valores de las constantes fundamentales.

Para la atracción electrostática tienes dos cantidades, la masa de un objeto y su carga. La carga q determina qué tan fuerte es una fuerza F se ejerce sobre la carga por un campo eléctrico mi. F = qmi, mientras que la masa determina la facilidad con la que una fuerza F acelerará la masa, a = F/ m (para dado F y m que determina la aceleración).

Haciendo la transición a la teoría muy similar de la gravedad newtoniana (asumiendo la constante g = 9,81 m / s²), encontramos que la carga y la masa son lo mismo y se cancelan fuera de la ecuación, por lo que algo es diferente acerca de la gravedad. (En un paso intermedio, puede examinar la cuestión de si la masa que determina la fuerza gravitacional y la masa que determina la facilidad con la que se acelera un objeto son realmente la misma, pero después de verificar esto con alta precisión, parecen serlo).

Sin embargo, lo que mencionas sobre la caja es cierto para un campo gravitacional constante o `` localmente '' (es decir, si miras un pequeño vecindario de la caja), en la escala más grande tendrás diferencias en la atracción gravitacional y los llamados efectos de marea que significan puede distinguir la aceleración lineal de estar en un campo gravitacional.

Sin embargo, la idea nos lleva a la relatividad general, donde damos sentido al hecho de que la masa se cancela a partir de la ecuación newtoniana y las trayectorias de los cuerpos bajo la gravedad no dependen de su masa (incluso los objetos sin masa se ven afectados), al describir la gravedad como un efecto geométrico.


Peligros de terremoto 201 - Preguntas y respuestas técnicas

Una lista de preguntas técnicas y respuestas sobre peligros de terremotos.

¿Qué es% g?

¿Qué es la aceleración? aceleración máxima? aceleración máxima del suelo (PGA)?

¿Qué es la aceleración espectral (SA)?

PGA (aceleración máxima) es lo que experimenta una partícula en el suelo, y SA es aproximadamente lo que experimenta un edificio, modelado por una masa de partículas en una barra vertical sin masa que tiene el mismo período natural de vibración que el edificio.

La masa de la varilla se comporta como un oscilador armónico simple (SHO). Si uno "impulsa" el sistema masa-varilla en su base, utilizando el registro sísmico, y asumiendo una cierta amortiguación del sistema masa-varilla, se obtendrá un registro del movimiento de las partículas que básicamente "siente" solo los componentes del suelo. movimiento con períodos cercanos al período natural de este SHO. Si miramos este registro sísmico de partículas, podemos identificar el desplazamiento máximo. Si tomamos la derivada (tasa de cambio) del registro de desplazamiento con respecto al tiempo, podemos obtener el registro de velocidad. Asimismo, se puede determinar la velocidad máxima. De manera similar, para la aceleración de respuesta (tasa de cambio de velocidad) también llamada aceleración espectral de respuesta, o simplemente aceleración espectral, SA (o Sa).

PGA es un buen índice de peligrosidad para edificios cortos, de hasta aproximadamente 7 pisos. Para ser un buen índice, significa que si traza alguna medida de demanda colocada en un edificio, como el desplazamiento entre pisos o la cizalladura de la base, contra el PGA, para un número de edificios diferentes para un número de terremotos diferentes, obtendrá una fuerte correlación. .

PGA es un parámetro de diseño simple y natural ya que puede estar relacionado con una fuerza y ​​para un diseño simple se puede diseñar un edificio para resistir una cierta fuerza horizontal. PGV, velocidad máxima del suelo, es un buen índice de peligro para edificios más altos. Sin embargo, no está claro cómo relacionar la velocidad con la fuerza para diseñar un edificio más alto.

SA también sería un buen índice de peligro para los edificios, pero debería estar más estrechamente relacionado con el comportamiento del edificio que los parámetros máximos de movimiento del suelo. El diseño también puede ser más fácil, pero es probable que la relación con la fuerza de diseño sea más complicada que con PGA, porque el valor del período entra en escena.

PGA, PGV o SA solo están relacionados aproximadamente con la demanda / diseño del edificio porque el edificio no es un simple oscilador, sino que tiene matices de vibración, cada uno de los cuales imparte una demanda máxima a diferentes partes de la estructura, cada parte de la cual puede tener su propias debilidades. La duración también juega un papel en el daño, y algunos argumentan que el daño relacionado con la duración no está bien representado por los parámetros de respuesta.

Por otro lado, algunos autores han demostrado que la respuesta no lineal de una determinada estructura es solo débilmente dependiente de la magnitud y la distancia del terremoto causante, por lo que la respuesta no lineal está relacionada con la respuesta lineal (SA) mediante un escalar simple. (factor multiplicador). Esto no es así para los parámetros pico del suelo, y este hecho sostiene que SA debería ser significativamente mejor como índice de demanda / diseño que los parámetros pico de movimiento del suelo.

No hay un significado particular para el tamaño relativo de PGA, SA (0,2) y SA (1,0). En promedio, estos se correlacionan aproximadamente, con un factor que depende del período. Si bien PGA puede reflejar lo que una persona podría sentir de pie en el suelo en un terremoto, no creo que sea correcto afirmar que SA refleja lo que uno podría " sentir "si uno está en un edificio. En edificios más altos, los movimientos del suelo de períodos cortos se sienten solo débilmente, y los movimientos de períodos prolongados tienden a no sentirse como fuerzas, sino más bien como desorientación y mareos.

¿Qué es la probabilidad de excedencia (PE)?

Para cualquier sitio dado en el mapa, la computadora calcula el efecto de movimiento del suelo (aceleración máxima) en el sitio para todas las ubicaciones y magnitudes del terremoto que se cree posible en las cercanías del sitio. Se cree que cada uno de estos pares de magnitud y ubicación ocurre con una probabilidad promedio por año. Los movimientos de tierra pequeños son relativamente probables, los movimientos de tierra grandes son muy improbables. Comenzando con los movimientos de tierra más grandes y procediendo a los más pequeños, sumamos probabilidades hasta llegar a una probabilidad total correspondiente a una probabilidad dada, P, en un período de tiempo particular. , T.

La probabilidad P proviene de movimientos del suelo mayores que el movimiento del suelo en el que dejamos de sumar. Se dice que el movimiento del suelo correspondiente (aceleración máxima) tiene una probabilidad P de excedencia (PE) en T años. El mapa contornea los movimientos del suelo correspondientes a esta probabilidad en todos los sitios de una cuadrícula que cubre los EE. UU. mapas de probabilidad, sino más bien mapas de peligro de movimiento del suelo a un nivel de probabilidad dado. En el futuro, es probable que publiquemos mapas que sean mapas de probabilidad. Mostrarán la probabilidad de excedencia para algún movimiento constante del suelo. Por ejemplo, uno de esos mapas puede mostrar la probabilidad de un movimiento del suelo superior a 0,20 g en 50 años.

¿Cuál es la relación entre la aceleración máxima del suelo (PGA) y la "aceleración máxima efectiva" (Aa), o entre la velocidad máxima del suelo (PGV) y la "velocidad máxima efectiva" (Av) según aparecen estos parámetros en los mapas del código de construcción?

Aa y Av no tienen una definición física clara, como tales. Más bien, son construcciones del código de construcción, adoptadas por el personal que elaboró ​​las disposiciones sísmicas del Consejo de Tecnología Aplicada (1978) (ATC-3). Los mapas para Aa y Av fueron derivados por el personal del proyecto ATC a partir de un borrador del mapa probabilístico de aceleración máxima de Algermissen y Perkins (1976) (y otros mapas) con el fin de proporcionar el diseño de movimientos del suelo para su uso en códigos de construcción de modelos. Muchos aspectos de ese informe ATC-3 han sido adoptados por los códigos de construcción modelo nacionales actuales (en uso en 1997), a excepción de las nuevas disposiciones del NEHRP.

Este proceso se explica en el documento ATC-3 al que se hace referencia a continuación, (p. 297-302). Aquí hay algunos extractos de ese documento:

  • pag. 297. "En la actualidad, la mejor herramienta viable para describir el movimiento del terreno de diseño es un espectro de respuesta elástica suavizado para sistemas de un solo grado de libertad ...
  • pag. 298. "Al desarrollar las disposiciones de diseño, se utilizaron dos parámetros para caracterizar la intensidad de la vibración del suelo de diseño. Estos parámetros se denominan Aceleración pico efectiva (EPA), Aa, y Velocidad máxima efectiva (EPV), Av. Estos parámetros no Actualmente no existen definiciones precisas en términos físicos, pero su significado puede entenderse en los siguientes párrafos.
  • "Para comprender mejor el significado de EPA y EPV, deben considerarse como factores de normalización para la construcción de espectros de respuesta elástica suavizados para movimientos del suelo de duración normal. La EPA es proporcional a las ordenadas espectrales para períodos en el rango de 0,1 a 0,5 segundos, mientras que la EPV es proporcional a las ordenadas espectrales en un período de aproximadamente 1 segundo ... La constante de proporcionalidad (para un espectro de amortiguación del 5 por ciento) se establece en un valor estándar de 2,5 en ambos casos.
  • "... La EPA y la EPV así obtenidas están relacionadas con la aceleración máxima del suelo y la velocidad máxima del suelo, pero no son necesariamente iguales o incluso proporcionales a la aceleración y velocidad máximas. Cuando hay frecuencias muy altas en el movimiento del suelo, la EPA puede ser significativamente menor que la aceleración máxima. Esto es consistente con la observación de que cortar el espectro calculado a partir de ese movimiento, excepto en períodos mucho más cortos que los de interés en la práctica de construcción ordinaria, tiene muy poco efecto sobre el espectro de respuesta calculado a partir de ese movimiento, excepto en períodos mucho más cortos que los de interés en la práctica de construcción ordinaria ... Por otro lado, el EPV generalmente será mayor que la velocidad máxima a grandes distancias de un gran terremoto ".
  • pag. 299. "Por lo tanto, la EPA y la EPV para un movimiento pueden ser mayores o menores que la aceleración y la velocidad máximas, aunque generalmente la EPA será menor que la aceleración máxima mientras que la EPV será mayor que la velocidad máxima.
  • "... Para propósitos de calcular el coeficiente de fuerza lateral en la Sección 4.2, EPA y EPV se reemplazan por coeficientes adimensionales Aa y Av respectivamente. Aa es numéricamente igual a EPA cuando EPA se expresa como una fracción decimal de la aceleración de la gravedad. "

Ahora, el examen del diagrama tripartito del espectro de respuesta para el terremoto de El Centro en 1940 (p. 274, Newmark y Rosenblueth, Fundamentals of Earthquake Engineering) verifica que tomando la aceleración de la respuesta al 0.05 por ciento de amortiguamiento, en períodos entre 0.1 y 0.5 segundos, y dividir por un número entre 2 y 3 se aproximaría a la aceleración máxima de ese terremoto. Por tanto, en este caso, la aceleración máxima efectiva en este intervalo de períodos es casi numéricamente igual a la aceleración máxima real.

Sin embargo, dado que el espectro de aceleración de respuesta es asintótico a la aceleración máxima durante períodos muy cortos, algunas personas han asumido que la aceleración máxima efectiva es 2,5 veces menor que la aceleración máxima real. Esto solo sería cierto si se continuara dividiendo las aceleraciones de respuesta por 2,5 durante períodos mucho más cortos que 0,1 segundos. Pero la EPA solo se define para períodos superiores a 0,1 seg.

La aceleración máxima efectiva podría ser un factor menor que la aceleración máxima para aquellos terremotos en los que las aceleraciones máximas ocurren como picos de período corto. Esto es precisamente para lo que está diseñada la aceleración máxima efectiva.

Por otro lado, el mapa del informe ATC-3 limita la EPA a 0,4 g incluso cuando las aceleraciones máximas probabilísticas pueden llegar a 1,0 g o más. ASÍ, la EPA EN EL MAPA DEL INFORME ATC-3 puede ser un factor de 2.5 menos que la aceleración máxima probabilística para ubicaciones donde la aceleración máxima probabilística es de alrededor de 1.0 g.

Los siguientes párrafos describen cómo se construyeron los mapas Aa y Av en el código ATC.

Se consideró el mapa probabilístico del movimiento del suelo de 1976 del USGS. Se invitó a trece sismólogos a suavizar el mapa probabilístico de aceleración máxima, teniendo en cuenta otros mapas regionales y su propio conocimiento regional. Se dibujó un mapa final basado en esos suavizados. Los movimientos del suelo se truncaron al 40% g en áreas donde los valores probabilísticos podían oscilar entre 40 y más del 80% g. Esto resultó en un mapa Aa, que representa una base de diseño para edificios que tienen períodos naturales cortos. Aa se denominó "Aceleración máxima efectiva".

Se "colocó" una función de atenuación para la velocidad máxima sobre el mapa Aa con el fin de producir una ampliación espacial de los valores más bajos de Aa. Las áreas ampliadas se denominaron Av por "Aceleración efectiva relacionada con la velocidad máxima" para el diseño de edificios de períodos más largos, y se trazó un mapa separado para este parámetro.

Tenga en cuenta que, en la práctica, los mapas Aa y Av se obtuvieron de un mapa PGA y NO aplicando los factores 2.5 a los espectros de respuesta.

Tenga en cuenta también que si se examina la relación entre el valor de SA (0,2) y el valor de PGA en ubicaciones individuales en los nuevos mapas de riesgo probabilísticos nacionales del USGS, el valor de la relación es generalmente inferior a 2,5.

Fuentes de información:

  • Algermissen, S.T., y Perkins, David M., 1976, Una estimación probabilística de la aceleración máxima en la roca en los Estados Unidos contiguos, Informe de archivo abierto del Servicio Geológico de EE. UU. OF 76-416, 45 p.
  • Consejo de Tecnología Aplicada, 1978, Disposiciones provisionales para el desarrollo de regulaciones sísmicas para edificios, ATC-3-06 (NBS SP-510) Oficina de Imprenta del Gobierno de EE. UU., Washington, 505 p.

¿Qué es el porcentaje de amortiguación?

En nuestra pregunta sobre la aceleración de la respuesta, usamos un modelo físico simple de una masa de partículas en una barra vertical sin masa para explicar el período natural. Para este modelo ideal, si la masa se pone en movimiento muy brevemente, el sistema permanecerá en oscilación indefinidamente. En un sistema real, la barra tiene una rigidez que no solo contribuye al período natural (cuanto más rígida es la barra, más corto es el período de oscilación), sino que también disipa energía a medida que se dobla. Como resultado, la oscilación disminuye constantemente de tamaño, hasta que el sistema masa-varilla vuelve a estar en reposo. A esta disminución en el tamaño de la oscilación la llamamos amortiguación. Decimos que la oscilación se ha amortiguado.

Cuando la amortiguación es pequeña, la oscilación tarda mucho en amortiguarse. Cuando la amortiguación es lo suficientemente grande, no hay oscilación y el sistema masa-varilla tarda mucho en volver a la vertical. La amortiguación crítica es el valor mínimo de amortiguación para el que la amortiguación evita la oscilación. Cualquier valor de amortiguamiento particular que podamos expresar como un porcentaje del valor crítico de amortiguamiento. Debido a que las aceleraciones espectrales se utilizan para representar el efecto de los movimientos del suelo de un terremoto en los edificios, el amortiguamiento utilizado en el cálculo de la aceleración espectral debe corresponder al amortiguamiento que se experimenta típicamente en los edificios. para el cual se utiliza el diseño antisísmico. Los códigos de construcción asumen que el 5 por ciento de la amortiguación crítica es un valor razonable para aproximarse a la amortiguación de los edificios para los que se diseñó un diseño resistente a terremotos. Por lo tanto, las aceleraciones espectrales dadas en los mapas de peligro sísmico también son el 5 por ciento del amortiguamiento crítico.

¿Por qué desagrupa el catálogo de terremotos para desarrollar los mapas de peligro sísmico?

La razón principal para el desagrupamiento es obtener la mejor estimación posible de la tasa de sacudidas principales. Además, la metodología requiere un catálogo de eventos independientes (modelo de Poisson) y el desagrupamiento ayuda a lograr la independencia.

Los daños causados ​​por el terremoto deben repararse, independientemente de cómo se etiquete el terremoto. Algunos argumentan que estas réplicas deben contarse. Esta observación sugiere que una mejor manera de manejar las secuencias de terremotos que el desagrupamiento sería modelar explícitamente los eventos agrupados en el modelo de probabilidad. Este paso podría representar un refinamiento futuro. La otra cara de la moneda es que estos eventos secundarios no van a ocurrir sin el impacto principal. Cualquier posible inclusión de sismos previos y réplicas en el pronóstico de probabilidad de terremotos debe dejar en claro que ocurren en una ventana de tiempo breve cerca del sismo principal y no afectan los períodos libres de terremotos excepto de manera trivial. Es decir, la probabilidad de que no se produzcan terremotos con M & gt5 en un período de pocos años prácticamente no se ve afectada por el proceso de desagrupamiento. Además, en la experiencia de EE. UU., El daño por réplica ha tendido a ser una pequeña proporción del daño causado por el sismo principal.

¿Cómo utilizo los mapas de amenaza sísmica?

Los mapas vienen en tres niveles de probabilidad diferentes y cuatro parámetros de movimiento del suelo diferentes, aceleración máxima y aceleración espectral a 0.2, 0.3 y 1.0 seg. (Estos valores se asignan para una condición geológica determinada del sitio. Otras condiciones del sitio pueden aumentar o disminuir el peligro. Además, en igualdad de condiciones, los edificios más antiguos son más vulnerables que los nuevos).

Los mapas se pueden utilizar para determinar (a) la probabilidad relativa de un nivel crítico dado de movimiento del suelo de un terremoto de una parte del país a otra (b) la demanda relativa de estructuras de una parte del país a otra, en un determinado nivel de probabilidad. Además, los códigos de construcción © utilizan uno o más de estos mapas para determinar la resistencia requerida por los edificios para resistir niveles dañinos de movimiento del suelo.

Los diferentes niveles de probabilidad son los de interés en la protección de edificios contra el movimiento del suelo sísmico. Los parámetros de movimiento del suelo son proporcionales al peligro que enfrenta un tipo particular de edificio.

La aceleración máxima es una medida de la fuerza máxima experimentada por una pequeña masa ubicada en la superficie del suelo durante un terremoto. Es un índice de riesgo para estructuras rígidas cortas.

La aceleración espectral es una medida de la fuerza máxima experimentada por una masa en la parte superior de una varilla que tiene un período de vibración natural particular. Los edificios cortos, digamos, de menos de 7 pisos, tienen períodos naturales cortos, digamos, 0.2-0.6 seg. Los edificios altos tienen períodos naturales prolongados, digamos 0,7 segundos o más. Un registro de movimiento fuerte de un terremoto se compone de cantidades variables de energía en diferentes períodos. Un período natural de construcción indica qué parte espectral del historial de tiempo de movimiento del suelo de un terremoto tiene la capacidad de poner energía en el edificio. Los períodos mucho más cortos que el período natural del edificio o mucho más largos que el período natural no tienen mucha capacidad de dañar el edificio. Por lo tanto, un mapa de un valor espectral probabilístico en un período particular se convierte en un índice del peligro relativo de daño a los edificios de ese período en función de la ubicación geográfica.

Elija un parámetro de movimiento del suelo de acuerdo con los principios anteriores. Para muchos propósitos, la aceleración máxima es un parámetro adecuado y comprensible. Elija un valor de probabilidad de acuerdo con la oportunidad que desee tomar. Ahora se puede seleccionar un mapa y observar el peligro relativo de una parte del país a otra.

Si se desea estimar la probabilidad de excedencia para un nivel particular de movimiento del suelo, se pueden graficar los valores del movimiento del suelo para las tres probabilidades dadas, utilizando papel cuadriculado log-log e interpolar, o, hasta cierto punto, extrapolar para el valor deseado. nivel de probabilidad. A la inversa, se puede hacer el mismo gráfico para estimar el nivel de movimiento del suelo correspondiente a un nivel dado de probabilidad diferente de los mapeados.

Si se desea estimar el valor probabilístico de la aceleración espectral para un período entre los períodos enumerados, se podría usar el método informado en el Informe de archivo abierto 95-596, Mapas de respuesta espectral del USGS y su uso en fuerzas de diseño sísmico en códigos de construcción. (Este informe se puede descargar del sitio web). El informe explica cómo construir un espectro de diseño de una manera similar a la que se hace en los códigos de construcción, utilizando una ordenada espectral probabilística de período largo y de período corto del tipo encontrado en los mapas. Dado el espectro, se puede obtener un valor de diseño en un período espectral dado distinto de los períodos del mapa.

¿Qué sucede si necesitamos conocer las tasas totales de terremotos con M & gt5, incluidas las réplicas?

Las réplicas y otros problemas de eventos dependientes no son realmente abordables en este sitio web dados nuestros supuestos de modelo, con una excepción. El modelo actual de Riesgo Sísmico Nacional (y este sitio web) trata explícitamente con eventos agrupados en la Zona Sísmica de Nuevo Madrid y le da a esta rama del modelo agrupado un peso del 50% en el árbol lógico. Incluso en el caso de NMSZ, sin embargo, solo se agrupan los temblores principales, mientras que se omiten las réplicas de NMSZ. Estamos realizando una investigación sobre los daños relacionados con las réplicas, pero actualmente no se ha resuelto cómo deberían influir las réplicas en el modelo de peligro.

Los valores del mapa de peligro sísmico muestran movimientos del suelo que tienen una probabilidad de superarse en 50 años de 10, 5 y 2 por ciento. ¿Cuál es la probabilidad de que se superen en un año (la probabilidad anual de superación)?

Sea r = 0.10, 0.05 o 0.02, respectivamente. La probabilidad anual aproximada de excedencia es la razón, r * / 50, donde r * = r (1 + 0.5r). (Para obtener la probabilidad anual en porcentaje, multiplique por 100). La inversa de la probabilidad anual de excedencia se conoce como el "período de retorno", que es el número promedio de años que se necesitan para obtener una excedencia.

Ejemplo: ¿Cuál es la probabilidad anual de exceder el movimiento del suelo que tiene un 10 por ciento de probabilidad de exceder en 50 años?

Respuesta: Sea r = 0.10. La probabilidad anual aproximada de superación es de aproximadamente 0,10 (1,05) / 50 = 0,0021. El período de retorno calculado es de 476 años, con la respuesta verdadera menos de medio por ciento menor.

Se puede usar la misma aproximación para r = 0.20, con la respuesta verdadera alrededor de un uno por ciento más pequeña. Cuando r es 0.50, la respuesta verdadera es aproximadamente un 10 por ciento más pequeña.

Ejemplo: Suponga que un movimiento del suelo en particular tiene un 10 por ciento de probabilidad de superarse en 50 años. ¿Cuál es la probabilidad de que se supere en 500 años? ¿Es (500/50) 10 = 100 por ciento?

Respuesta: No. Vamos a resolver esto equiparando dos aproximaciones:

r1 * / T1 = r2 * / T2. Resolviendo para r2 *, y dejando T1 = 50 y T2 = 500,
r2 * = r1 * (500/50) = .0021 (500) = 1.05.
Toma la mitad de este valor = 0.525. r2 = 1,05 / (1,525) = 0,69.
Parar ahora. No intente refinar este resultado.

La respuesta verdadera es aproximadamente un diez por ciento más pequeña, 0.63. Para r2 * menor que 1.0, la aproximación mejora mucho más rápidamente.

Para r2 * = 0.50, el error es menor al 1 por ciento.
Para r2 * = 0,70, el error es de alrededor del 4 por ciento.
Para r2 * = 1,00, el error es de alrededor del 10 por ciento.

Se recomienda precaución para valores de r2 * mayores que 1.0, pero es interesante notar que para r2 * = 2.44, la estimación es solo un 17% más grande. Esto sugiere que, teniendo en cuenta el error, se pueden calcular números útiles.

Este es un ejemplo inusual pero útil. Evidentemente, r2 * es el número de veces que se espera que se supere el movimiento del suelo de referencia en T2 años. Suponga que alguien le dice que un evento en particular tiene una probabilidad del 95 por ciento de ocurrir en el tiempo T. Para r2 = 0.95, uno esperaría que el r2 calculado sea aproximadamente un 20% más alto. Por lo tanto, sea r2 calculado = 1,15.

Los cálculos anteriores sugieren la ecuación,
r2calc = r2 * / (1 + 0.5r2 *)
Encuentre r2 * .r2 * = 1,15 / (1 - 0,5x1,15) = 1,15 / 0,425 = 2,7

Esto implica que para que el enunciado de probabilidad sea verdadero, el evento debería ocurrir en un promedio de 2.5 a 3.0 veces durante un tiempo de duración = T. Si la historia no respalda esta conclusión, el enunciado de probabilidad puede no ser creíble.

El mapa de peligro sísmico es para movimientos del suelo que tienen una probabilidad de superación del 2% en 50 años. ¿Son esos valores los mismos que los del 10% en 250?

Si, basicamente. Esta conclusión se ilustrará mediante el uso de una regla empírica aproximada para calcular el período de retorno (RP).

Un mapa típico de peligro sísmico puede tener el título "Movimientos del suelo con una probabilidad del 90 por ciento de no superarse en 50 años". El 90 por ciento es una "probabilidad de no excedencia", los 50 años es un "tiempo de exposición". Un título alternativo equivalente para el mismo mapa sería "Movimientos del suelo que tienen un 10 por ciento de probabilidad de superarse en 50 años". Una taquigrafía típica para describir estos movimientos del suelo es decir que son movimientos del suelo con un período de retorno de 475 años. Esto significa lo mismo que decir que estos movimientos del suelo tienen una probabilidad anual de ocurrencia de 1/475 por año. El "período de retorno" es, por lo tanto, el inverso de la probabilidad anual de ocurrencia (de obtener una superación de ese movimiento del suelo).

Para obtener un valor aproximado del período de retorno, RP, dado el tiempo de exposición, T y la probabilidad de excedencia, r = 1 - probabilidad de no excedencia, NEP, (expresada como decimal, en lugar de porcentaje), calcule:

RP = T / r * Donde r * = r (1 + 0.5r) .r * es una aproximación al valor -loge (NEP).
En el caso anterior, donde r = 0.10, r * = 0.105 que es aproximadamente = -loge (0.90) = 0.10536
Así, aproximadamente, cuando r = 0.10, RP = T / 0.105

Considere la siguiente tabla:

Regla de oro Exacto
NEP T r r * Cálculo RP RP
0.90 50 0.10 0.105 50/0.105 476.2 474.6
0.90 100 0.10 0.105 100/0.105 952.4 949.1
0.90 250 0.10 0.105 250/0.105 2381.0 2372.8

En esta tabla, la probabilidad de excedencia es constante para diferentes tiempos de exposición. Compare los resultados de la tabla anterior con los que se muestran a continuación, todos para el mismo tiempo de exposición, con diferentes probabilidades de superación.

Regla de oro Exacto
NEP T r r * Cálculo RP RP
0.90 50 0.10 0.105 50/0.105 476.2 474.6
0.95 50 0.05 0.05125 50/0.05125 975.6 974.8
0.98 50 0.02 0.0202 50/0.0202 2475.2 2475.9

La comparación de la última entrada en cada tabla nos permite ver que los valores de movimiento del suelo que tienen un 2% de probabilidad de superación en 50 años deben ser aproximadamente los mismos que los que tienen un 10% de probabilidad de superarse en 250 años: Las probabilidades de superación anual difieren por alrededor del 4%. Los movimientos del suelo correspondientes deben diferir en un 2% o menos en el EUS y en un 1% o menos en el WUS, según las relaciones típicas entre el movimiento del suelo y el período de retorno.

Estoy tratando de calcular el efecto del movimiento del suelo para una determinada ubicación en California. Obtuve la aceleración del espectro de diseño de su sitio, pero me gustaría identificar el tipo de suelo de esta ubicación, ¿cómo puedo obtenerlo?

No puede encontrar esa información en nuestro sitio.

No conocemos ningún sitio que tenga un mapa de las condiciones del sitio por categoría del Código de construcción del Programa Nacional de Reducción de Riesgos de Terremotos (NEHRP). Hay un mapa de algún tipo de condición generalizada del sitio creado por la División de Minas y Geología de California (CDMG). El mapa abarca todo el estado, se basa principalmente en la geología de la superficie y se puede ver en el sitio web del CDMG. No tiene líneas de latitud y longitud, pero si hace clic en él, explotará para darle más detalles, en caso de que pueda hacer correlaciones con las características geográficas. No hay ningún consejo sobre cómo convertir el tema en categorías particulares de sitios NEHRP.

Para los sitios en el área de Los Ángeles, hay al menos tres artículos en la siguiente publicación que le darán la condición geológica generalizada del sitio o la velocidad de onda de corte estimada para sitios en el Valle de San Fernando y otras áreas en Los Ángeles. Busque artículos con el autor / coautor J.C. Tinsley. Este es un trabajo más antiguo y puede que no sea necesariamente más preciso que el mapa estatal del CDMG para estimar la respuesta del sitio geológico.

  • Ziony, J.I., ed., 1985, Evaluación de los peligros del terremoto en la región de Los Ángeles: una perspectiva de las ciencias de la tierra, Documento profesional del Servicio Geológico de EE. UU. 1360, Oficina de Imprenta del Gobierno de EE. UU., Washington, 505 p.
  • C. J. Wills, et al :, Un mapa de las condiciones del sitio para California basado en la geología y la velocidad de las ondas de corte, BSSA, Bulletin Seismological Society of America, diciembre de 2000, vol. 90 Número 6, Suplemento de la Parte B, págs. S187-S208. En general, se espera que alguien que use el código obtenga la condición del sitio geológico de los funcionarios locales del condado o que un ingeniero geotécnico visite el sitio.

¿Qué es una métrica de distancia? ¿Por qué es importante la elección de la métrica de distancia en las evaluaciones de probabilidad? ¿Qué distancia debo utilizar?

En el caso de los terremotos, hay varias formas de medir qué tan lejos está. La que usamos aquí es la distancia epicentral o la distancia del punto más cercano de la proyección de la falla a la superficie de la Tierra, técnicamente llamado Rjb. Incluso si la fuente del terremoto es muy profunda, más de 50 km de profundidad, aún podría tener una pequeña distancia epicentral, como 5 km. Las frecuencias de tales fuentes se incluyen en el mapa si están dentro de una distancia epicentral de 50 km.

Varias ciudades en el oeste de los EE. UU. Han experimentado daños significativos por terremotos con una profundidad hipocentral superior a 50 km. Estos terremotos representan una parte importante del peligro sísmico en la región de Puget Sound en Washington. Si la evaluación de probabilidad usara una distancia de corte de 50 km, por ejemplo, y usara una distancia hipocentral en lugar de epicentral, estos terremotos profundos de Puget Sound se omitirían, lo que arrojaría un valor mucho más bajo para el pronóstico de probabilidad. Otro ejemplo en el que la métrica de distancia puede ser importante es en sitios sobre fallas de inmersión. La distancia informada en este sitio web es Rjb = 0, mientras que otro análisis podría usar otra métrica de distancia que produce un valor de R = 10 km, por ejemplo, para el mismo sitio y falla. Por lo tanto, si desea conocer la probabilidad de que una falla de inmersión cercana se rompa en los próximos años, puede ingresar un valor muy pequeño de Distancia máxima, como 1 o 2 km, para obtener un informe de esta probabilidad.

Esta distancia (en km, no en millas) es algo que puede controlar. Si solo está interesado en terremotos muy cercanos, puede hacer que este sea un número pequeño, como 10 o 20 km. Si está interesado en grandes eventos que podrían estar muy lejos, puede hacer que este número sea grande, como 200 o 500 km. El informe le informará las tasas de eventos pequeños y grandes, por lo que debe esperar una alta tasa de terremotos M5 dentro de los 200 km o 500 km de su sitio favorito, por ejemplo. La mayoría de estos pequeños eventos no se sentirían. Si un evento M8 es posible dentro de los 200 km de su sitio, probablemente se sentiría incluso a esta gran distancia.

¿Dónde puedo encontrar información sobre las zonas sísmicas 0,1,2,3,4?

Una zona sísmica podría ser una de tres cosas:

  1. Una región en un mapa en la que se requiere un nivel común de diseño sísmico. Este concepto está obsoleto.
  2. Un área de sismicidad que probablemente comparte una causa común. Ejemplo: "La Zona Sísmica de Nuevo Madrid".
  3. Región de un mapa para la que se supone una tasa de sismicidad de área común con el fin de calcular los movimientos probabilísticos del suelo.

Los mapas de códigos de construcción que utilizan zonas numeradas, 0, 1, 2, 3, 4, son prácticamente obsoletos. 1969 fue el último año en que este personal elaboró ​​un mapa de este tipo. El Código Uniforme de Construcción de 1997 (UBC) (publicado en California) es el único código de construcción que todavía usa tales zonas. Generalmente, durante las últimas dos décadas, los códigos de construcción han reemplazado los mapas que tienen zonas numeradas con mapas que muestran los contornos del movimiento del suelo del diseño. Estos mapas, a su vez, se han derivado de mapas probabilísticos de movimiento del suelo. Los mapas probabilísticos del movimiento del suelo se han incluido en las disposiciones sísmicas de los códigos de construcción modelo más recientes de EE. UU., Como el nuevo "Código internacional de construcción", y en normas nacionales como "Cargas mínimas de diseño para edificios y otras estructuras", preparadas por el Sociedad Estadounidense de Ingenieros Civiles.

Los mapas de zona numerados 0, 1, 2, 3, etc., ya no se utilizan por varias razones:

  • Un solo mapa no puede mostrar correctamente el peligro para todas las probabilidades o para todos los tipos de edificios. Probabilidades: Para probabilidades muy pequeñas de superación, los mapas probabilísticos de peligro de movimiento del suelo muestran menos contraste de una parte del país a otra que los mapas para grandes probabilidades de superación. Edificios: los edificios cortos y rígidos son más vulnerables a eventos cercanos de magnitud moderada que los edificios altos y flexibles. Estos últimos, a su vez, son más vulnerables a eventos distantes de gran magnitud que los edificios cortos y rígidos. Por lo tanto, el contraste de peligrosidad de los edificios cortos de una parte del país a otra será diferente del contraste de peligrosidad de los edificios altos.
  • Los códigos de construcción adaptan los límites de las zonas para acomodar el deseo de que los estados individuales proporcionen mayor seguridad, menos contraste de una parte del estado a otra, o para adaptar las zonas más de cerca a las características tectónicas naturales. Debido a estos cambios en los límites de las zonas, las zonas no tienen un significado sismológico más profundo y hacen que los mapas carezcan de significado para aplicaciones distintas de los códigos de construcción.Un ejemplo de tal adaptación lo da la evolución del UBC desde su adaptación de un par de mapas de contorno de 1976. Primero, la UBC tomó uno de esos dos mapas y lo convirtió en zonas. Luego, a lo largo de los años, la UBC ha permitido la revisión de los límites de la zona por petición de varios estados del oeste, por ejemplo, la eliminación de la zona 2 en el centro de California, la eliminación de la zona 1 en el este de Washington y Oregon, la adición de una zona 3 en el oeste de Washington y Oregon, adición de una zona 2 en el sur de Arizona y recorte de una zona en el centro de Idaho.

Las versiones más antiguas (1994, 1997) del código UBC pueden estar disponibles en una biblioteca local o universitaria. Se puede encontrar una versión rediseñada del mapa de UBC 1994 como una de las ilustraciones en un documento sobre la relación entre los mapas de USGS y los mapas de códigos de construcción.


Ver el vídeo: Accelerated motion with constant acceleration and Statistics and Probability (Diciembre 2022).