Contenido básico de la revolución científica moderna
El contenido principal de la revolución científica moderna
La revolución científica moderna está guiada por la revolución en la física y toma el surgimiento de la cosmología moderna, la biología molecular, la ciencia de sistemas y la ciencia blanda. como contenido importante, una nueva revolución científica caracterizada por la penetración mutua de las ciencias naturales, las ciencias sociales y las ciencias ideológicas para formar sujetos interdisciplinarios.
(1) Expansión de la revolución de la física
La revolución de la física moderna ha producido dos teorías básicas: la teoría de la relatividad, que estudia la alta velocidad (cercana a la velocidad de la luz) fenómenos físicos y mecánica cuántica, que estudia fenómenos microscópicos. Después de eso, rápidamente se expandió a niveles más profundos de macro, cosmos y micro, y avanzó hacia la dirección de la gran unidad. La astrofísica, la física nuclear, la física de partículas, la física de la materia condensada y la teoría de campos unificados son disciplinas muy activas en la física moderna. Especialmente después de la Segunda Guerra Mundial se logró un rápido desarrollo desde la exploración de la astrofísica cósmica hasta la revelación del misterio de la estructura de la materia. Cada avance y avance importante en la física moderna tiene un impacto amplio y profundo en el desarrollo de otras disciplinas, promueve en gran medida la producción y la revolución tecnológica y lleva a la humanidad a la era de las altas y nuevas tecnologías, como la energía, la información, los materiales y la bioingeniería. .
1. Nuevo descubrimiento de los rayos cósmicos
En 1945, los rayos cósmicos se convirtieron oficialmente en objeto de investigación de una rama de la física de los rayos cósmicos. Utiliza métodos técnicos radioelectrónicos para revelar aún más los misterios de los objetos cósmicos a través de la observación y el estudio de las ondas de radio emitidas y reflejadas por los objetos cósmicos. Antes de 1940, la gente empezó a comprender los rayos cósmicos procedentes de más allá de la Tierra. A finales de la década de 1940, se descubrió que los rayos cósmicos mezclados con elementos como helio, carbono, nitrógeno y hierro se aceleran lentamente en la Vía Láctea. Se especula que estos rayos cósmicos de alta energía son objetos dispersos de explosiones de supernovas. son acelerados en el campo magnético galáctico. La gente ha observado un aumento de los rayos cósmicos en la Tierra después de las tormentas magnéticas solares, lo que indica que los rayos cósmicos de baja energía provienen del sol. Científicos como Powell del Reino Unido, Ochalini de Italia y Basilatis de Italia han observado la trayectoria de los rayos cósmicos. Desde la década de 1960, debido al rápido desarrollo de la ciencia y la tecnología, ha habido un número cada vez mayor de radiotelescopios gigantes altamente sensibles y de alta resolución, que han descubierto y estudiado muchas radiaciones de radio cósmicas novedosas y únicas, como la radiación de fondo de microondas, cuásares, púlsares, etc. De 1963 a 1974, se descubrieron más de 30 tipos de moléculas interestelares, incluyendo una variedad de moléculas orgánicas que forman la estructura de la vida, como el hidroxilo (OH), moléculas de agua, moléculas de amoníaco (NH3), moléculas de formaldehído (CH2O). , moléculas de ácido fórmico (HCOOH), etc., abriendo nuevas formas de explorar el origen de la vida. Estos nuevos resultados proporcionan información extremadamente importante para el estudio de las tres teorías básicas de la evolución celeste, el origen de la vida y las partículas elementales, y promueven el surgimiento de muchas disciplinas nuevas como la astronomía de rayos X, la astronomía infrarroja, la astronomía de neutrinos, etc. El desarrollo de la astronomía ha entrado en un importante punto de inflexión, rompiendo así la visión estrecha del vasto universo, expandiéndose desde los miles de millones de años luz originales a 10 mil millones de años luz, 15 mil millones de años luz o incluso más, brindando a las personas una una mayor comprensión del universo infinito El universo proporciona nuevas pruebas científicas.
2. Desarrollo de la física de partículas
Después de la Segunda Guerra Mundial, la física de partículas se desarrolló rápidamente, lo que permitió a las personas comprender las propiedades, la estructura, las interacciones básicas y el movimiento de la materia microscópica. La comprensión de las leyes ha entrado en un nuevo nivel.
Antes de 1932, la comprensión de la microestructura de la materia había pasado por dos etapas: la estructura atómica y la estructura nuclear atómica.
El muón fue descubierto a finales de los años 30 y el neutrino en los años 50. Los electrones, muones, neutrinos y sus antipartículas se denominan colectivamente leptones. A finales de los años 40 y principios de los 50 se descubrieron una tras otra una serie de partículas elementales con masas superiores a las de los protones y neutrones, llamadas hiperones. Como ∧ hiperón, Σ hiperón, Ξ hiperón, también conocido como barión. A finales de la década de 1940 también se descubrió un tipo de mesones con una masa entre bariones y leptones, como los mesones π y los mesones K. A principios de la década de 1960, la construcción de pequeños aceleradores de alta energía descubrió más de 200 partículas vibratorias extremas de vida extremadamente corta, con una vida media de sólo 10-24 a 10-23 segundos. Todos ellos son hadrones. En 1974, Ting Zhaozhong y el físico estadounidense Richard Richter descubrieron casi simultáneamente un nuevo mesón que era más de tres veces más pesado que un protón y tenía una vida útil aproximadamente 1.000 veces más larga que un mesón ordinario. Más tarde se denominó colectivamente partícula J/ψ. Hasta ahora, las partículas básicas que se han descubierto han sido Hay más de 300 tipos de partículas. Según sus diferentes propiedades, se pueden dividir en: partículas ordinarias, partículas extrañas, partículas oscilantes y partículas nuevas.
En las condiciones de interacción, varias partículas elementales siguen ciertas leyes de simetría y conservación y pueden transformarse entre sí. El descubrimiento de estas partículas elementales ha avanzado la comprensión de la microestructura de la materia a la tercera etapa.
¿Son las partículas elementales el último nivel de la microestructura de la materia? ¿Se pueden subdividir las partículas "elementales"? En los últimos 20 años, muchos experimentos físicos han demostrado que las partículas elementales tienen su propia estructura interna y que existe alguna conexión interna entre las partículas elementales. Se han propuesto muchos modelos sobre la estructura interna de bariones y mesones. Los principales incluyen: el modelo Fermi-Yang Chenning en 1949 y el modelo Sakata de Japón en 1956. Estos modelos pueden explicar algo, pero encuentran dificultades a la hora de explicar sistemáticamente las propiedades de los bariones. En 1964, Gell-Mann y otros analizaron las propiedades de simetría de bariones y mesones y propusieron el "modelo de quarks". Propusieron tres tipos de quarks (u, d, s) y antiquarks (ū, d, S). Este modelo puede explicar bien las propiedades de bariones y mesones y predecir la existencia de superones Ω. En 1970, Glashow y otros propusieron el cuarto tipo de quark-charm (c,). En 1977, Lederman descubrió un mesón neutro γ, que es 10 veces más pesado que el protón y está compuesto por el quinto quark, el quark inferior (b,). Por razones de imagen y conveniencia, la gente lo describe desde la perspectiva de la teoría del calibre cuántico, llamando a u, d, s, c y b los cinco sabores de los quarks, y cada sabor se divide en tres "colores": rojo, amarillo. y azul. Tanto el "color" como el "sabor" representan diferentes estados cuánticos. De esta forma, el número de positivos y antiquarks pasa a ser 30.
Casi al mismo tiempo que se propuso la teoría de los quarks, en 1965, el Grupo de Teoría de Partículas Elementales de Beijing, China, propuso el "modelo de estratones" para estudiar los fenómenos de desintegración y transformación de bariones y mesones a partir de una perspectiva estructural. Se cree que los bariones y mesones están compuestos de estratones y antistratones más básicos, y la interacción de bariones y mesones se atribuye a la interacción de sus estratones internos. También se propone la función de onda de los estratones que forman bariones y mesones, y se supone que la teoría cuántica de campos también es aplicable a los estratones. Este modelo realizó una gran cantidad de cálculos sobre diversas interacciones de bariones y mesones, especialmente la desintegración de interacciones débiles e interacciones electromagnéticas, e hizo algunas predicciones, la mayoría de los cálculos y predicciones fueron consistentes con los resultados experimentales en ese momento. La introducción del modelo de quarks y del modelo de estratotrón marca la llegada de la cuarta etapa en la comprensión de la estructura microscópica del material. Sin embargo, los quarks (o estratones) no han recibido apoyo experimental durante mucho tiempo y se ha producido el fenómeno llamado "confinamiento de quarks". En los años 70, científicos como Ting Zhaozhong descubrieron signos de la existencia de gluones en el laboratorio, proporcionando una prueba indirecta de la existencia de niveles de quarks. El 26 de abril de 1994, el Laboratorio del Acelerador Nacional Fermi de Estados Unidos anunció que los científicos habían descubierto pruebas del quark top, una unidad estructural subatómica que aún no se había encontrado en la teoría de la materia. Utilizaron un método único de colisión de protones y antiprotones para encontrar el "quark superior" de aproximadamente 174 GeV, con una masa más de 180 veces la de un protón. La física de partículas ha permitido a la humanidad profundizar su comprensión hasta la etapa subatómica (o núcleo subatómico). Se ha entendido que las unidades de materia han sido tan pequeñas como los quarks y los leptones, y sus dimensiones son inferiores a 10-17 cm. de comprensión se ha reducido a diez veces la de un átomo, uno entre mil millones.
En el campo de las partículas elementales, el establecimiento de la electrodinámica cuántica, la dinámica del sabor cuántico y la cromodinámica cuántica ha simplificado enormemente la descripción de las interacciones en la naturaleza. Pero la gente espera encontrar una teoría que incluya todas las interacciones básicas conocidas, es decir, la llamada gran teoría unificada y la teoría unificada supergrande. Esta teoría no sólo puede explicar las diferencias entre varias fuerzas, sino también revelar la profunda conexión entre ellas. En los últimos años se han logrado algunos avances. Por ejemplo, en 1961, el físico estadounidense Glashow propuso por primera vez un modelo que unificaba las interacciones eléctricas y débiles. En 1967 y 1968, el físico estadounidense Weinberg y el físico paquistaní Salam desarrollaron y mejoraron de forma independiente este modelo basado en la teoría del calibre cuántico, que en conjunto se denominó teoría GWS, que ha sido respaldada por experimentos. Actualmente se está explorando más a fondo la posibilidad de unificar tres o incluso cuatro interacciones. Según la gran teoría unificada, a baja energía, las interacciones fuerte, débil y eléctrica satisfacen la SUc(3) y la SU(2). La interacción está unificada y satisface la simetría de la SU unificada (5). La física es más pequeña que la de las partículas elementales y el espacio-tiempo utilizado es de 10 dimensiones.
Si se establece esta teoría, será capaz de unificar más de un centenar de partículas básicas descubiertas hasta ahora, y también podrá unificar las cuatro fuerzas básicas: fuerza fuerte, fuerza débil, fuerza electromagnética y gravedad. (Compilado por el Departamento de Trabajo de la Asociación China para la Ciencia y la Tecnología. "Informe del Simposio Académico sobre Desarrollo Disciplinario y Progreso Científico y Tecnológico" Número 1, 28 de abril de 1994)
3. Física de la Materia
La física de la materia condensada es una disciplina que estudia las propiedades físicas, la estructura y las leyes internas de la materia condensada (principalmente líquidos y sólidos). Las investigaciones sobre el estado condensado de la materia han encontrado que los estados sólidos se dividen en estados cristalinos y amorfos, los estados líquidos se dividen en cristal líquido y estados líquidos amorfos. Los cristales sólidos, amorfos y líquidos tienen muchas propiedades excelentes. Dado que casi todos los materiales son materia condensada, el estudio de la física de la materia condensada es de gran importancia.
Después de 1945, la física del estado sólido entró en una nueva etapa. Los problemas más importantes en la física del estado sólido son los problemas de cristalización, los problemas de temperaturas ultrabajas y los problemas magnéticos. Debido al rápido desarrollo de la microscopía electrónica, la difracción de electrones, la difracción de neutrones y otras tecnologías, se han logrado grandes avances en el estudio de diversos defectos cristalinos (como vacantes, átomos de impurezas y dislocaciones) en cristales incompletos, que son similares a muchos industriales. Estrecha relación. En 1957, J. Bardeen, J. Shriver y L. Cooper publicaron conjuntamente la teoría microscópica de la mecánica cuántica de la superconductividad, que es la famosa teoría BCS. Al mismo tiempo, Bogolyubov, de la antigua Unión Soviética, explicó con éxito el fenómeno de la superconductividad utilizando diferentes métodos. Desde 1986, los suizos G. Bednotz y A. Muller han descubierto un óxido superconductor más prometedor: una serie de compuestos cerámicos con una temperatura de transición superconductora de alrededor de 40 K: la serie de óxidos de cobre, bario y lantano. El físico chino-estadounidense Zhu Jingwu y el físico chino Zhao Zhongxian han realizado contribuciones destacadas en la búsqueda de materiales con temperaturas de transición más altas. En 1988, descubrieron una serie de óxidos de itrio, bario y cobre con una temperatura de transición superior a 90 K. En los últimos años, la gente ha prestado cada vez más atención al estudio de materiales en estado sólido desordenados, como aleaciones desordenadas, materiales amorfos, materiales cerámicos, etc., también han prestado atención al estudio de las propiedades de los estados defectuosos; estados de impureza, estados superficiales y estados de interfaz. Estos estudios han alcanzado el nivel cuántico y han conducido a la creación de la física desordenada del estado sólido. En resumen, cada paso del desarrollo de la física de la materia condensada continúa profundizando la comprensión de las personas sobre las estructuras ordenadas y desordenadas de los objetos materiales y las propiedades físicas y químicas de diversos materiales, enriquece la visión materialista dialéctica de la naturaleza y promueve en gran medida el desarrollo de Nuevas revoluciones tecnológicas.
4. El surgimiento de la química cuántica
La química cuántica, que aplica los principios y métodos de la mecánica cuántica para estudiar la microestructura de las moléculas, es una base teórica importante para la química moderna. Estudia principalmente la estructura electrónica de átomos, moléculas y cristales, las interacciones entre moléculas, las colisiones y reacciones entre moléculas y la relación entre la microestructura y las propiedades macroscópicas. Desde el exitoso estudio de las moléculas de hidrógeno utilizando los principios de la mecánica cuántica en 1927, la química cuántica se ha desarrollado extremadamente rápidamente, transformando la química de una ciencia empírica a una ciencia teórica. En la actualidad, se ha establecido un sistema teórico relativamente sólido, se han desarrollado varios métodos de cálculo y desempeña un papel importante en diversos campos. Se interpenetra con otras disciplinas para formar algunas disciplinas de vanguardia, como la bioquímica cuántica, la química medicinal cuántica, la química cuántica de superficies y la química cuántica del estado sólido.
(2) Desarrollo de la cosmología moderna
La misión de la cosmología moderna es explorar un nivel del universo superior al de las galaxias y estudiar las características espacio-temporales de las galaxias más grandes. Universo a escala observada actualmente, La materia y sus leyes de movimiento. En las últimas décadas, los científicos han propuesto algunas teorías valiosas sobre el universo. Incluye principalmente: modelo de universo estático de Einstein, cosmología de estado estacionario, modelo de universo en expansión, modelo de universo materia-antimateria, cosmología del big bang y cosmología inflacionaria. El modelo del universo estático ha sido refutado por observaciones astronómicas. La cosmología del estado estacionario no es ampliamente aceptada.
En 1927, el astrónomo belga Lemaître propuso el concepto de expansión espacial a gran escala con el tiempo basándose en el corrimiento al rojo de las líneas espectrales en las galaxias extragalácticas. En 1929, Hubble de Estados Unidos y Eddington de Reino Unido propusieron la hipótesis de un universo en expansión. A finales de la década de 1940, el estadounidense Gamow propuso la teoría del Big Bang basada en el descubrimiento de que la energía solar proviene de reacciones termonucleares. Creía que el universo se formó a partir de una gran explosión de una "bola de fuego primordial" de alta temperatura y densidad hace aproximadamente 10 años. hace mil millones de años. En 1954 predijo que después del Big Bang se producirían "cenizas cósmicas", que producirían una radiación que impregnaría todo el espacio y correspondería a una temperatura absoluta de 5 grados. En 1965, el estadounidense A. Sandage propuso que el universo pulsa (se expande y se contrae) con un ciclo de unos 82 mil millones de años.
La cosmología del Big Bang está respaldada por tres importantes hechos observacionales: el desplazamiento hacia el rojo de las líneas espectrales de las galaxias extragalácticas, la abundancia de elementos de helio y la radiación de fondo de microondas de 3K, lo que la convierte en un modelo estándar reconocido. Sin embargo, al explicar que la edad del universo es inferior a un segundo, nos encontramos con problemas como el problema del horizonte, el problema de la planitud del espacio, el problema de la uniformidad (causalidad), el problema de la planitud (densidad de energía), siempre la asimetría bariónica y el problema del monopolo magnético. Dificultades insuperables llevaron al surgimiento de la cosmología inflacionaria.
Desde 1980, se han establecido múltiples modelos de inflación cósmica, tres de los cuales son influyentes. El primero fue propuesto por el estadounidense A. Guth en 1980, y publicó el artículo "Inflationary Universe: Possible Solutions to the Horizon and Flatness Problems" en 1981. La segunda fue propuesta independientemente por A. Linde de la ex Unión Soviética y P. Steinhardt y A. Albright de Estados Unidos a finales de 1981. El tercero fue desarrollado por Lind et al. y se llama modelo de inflación caótica. La cosmología inflacionaria hereda y desarrolla los valiosos resultados de teorías cosmológicas anteriores. Se cree que: en las primeras etapas de la evolución del universo, antes del big bang, el universo envejeció durante un breve período de 10 a 30 segundos y experimentó una etapa de rápida expansión (etapa de inflación) según una ley exponencial. , por lo que se expandió rápidamente en muy poco tiempo. Se ha expandido internamente 1050 veces, completando la ruptura espontánea del falso vacío simétrico en una gran cantidad de partículas elementales como quarks, leptones y bosones que transmiten interacciones. La cosmología inflacionaria también cree que hay muchos universos diferentes al nuestro fuera de nuestro universo, y algunas personas han calculado que hay hasta 1.050. Debido a que la cosmología inflacionaria se basa en los últimos logros en física de partículas y otros logros recientes, puede proponer constantemente nuevos conceptos y métodos y resolver constantemente diversos problemas, por lo que ha atraído la atención de muchos científicos. El modelo inflacionario también aporta algunos contenidos nuevos filosóficamente, como la cuestión de la infinitud del universo. Expande enormemente el universo científicamente y proporciona una base científica para la infinidad del universo. También se propone que existen nuevas formas de materia además de las formas conocidas de materia, es decir, se supone que existen otras formas de materia antes que las partículas, enriqueciendo así enormemente la comprensión de la materia por parte de las personas.
La cosmología moderna es una disciplina emergente y se encuentra en la etapa de disputa entre un centenar de escuelas de pensamiento. Hay muchos modelos propuestos, algunos han sido negados y algunos han recibido cierto grado de apoyo, pero todos. de ellos aún necesitan más desarrollo.
(3) Revolución en las ciencias de la vida
En el siglo XX, debido a la penetración de la física y la química y al uso de varios métodos de investigación poderosos, el desarrollo de las ciencias de la vida se ha convertido en más profundo y rápido. Por un lado, la biología molecular producida a nivel molecular en el campo microscópico confirma aún más la unidad y conexión del mundo biológico y logra otra gran síntesis en biología; por otro lado, la biología molecular producida sobre la base de lo macroscópico; investigación grupal e integral Introduce el concepto de ecosistema y proporciona una base teórica para la protección del medio ambiente, la utilización racional de los recursos biológicos y los recursos del suelo. Al mismo tiempo, las ciencias de la vida también avanzan hacia el cerebro humano, lo que permite que la ciencia del cerebro se desarrolle rápidamente.
1. El nacimiento de la biología molecular
La biología molecular es una ciencia que estudia las bases materiales de los fenómenos de la vida a nivel molecular. Estudia principalmente la estructura y función de macromoléculas biológicas como proteínas y ácidos nucleicos, incluido el estudio de diversos procesos vitales, como la fotosíntesis, la contracción muscular, la excitación nerviosa y la transmisión de características genéticas, y realiza estudios físicos y químicos en profundidad sobre analizarlos a nivel molecular. En la actualidad, la biología molecular se ha convertido en la corriente principal del desarrollo de la biología moderna y sus logros han obtenido algunas aplicaciones importantes en el trabajo práctico, abriendo amplias perspectivas sin precedentes para la industria, la agricultura y la medicina.
En 1953, Watson y Crick propusieron el modelo de estructura de doble hélice del material genético, el ADN, lo que supuso una gran revolución en biología. En la década de 1960, se aclararon las estructuras de las macromoléculas biológicas, como los ácidos nucleicos, las proteínas y las enzimas, y se reveló el mecanismo de síntesis del código genético y la información de los ácidos nucleicos que controlan la estructura específica de las proteínas, estableciendo así el concepto de información de variación genética biológica. . Esto muestra que los virus, las bacterias, los animales y las plantas y los humanos tienen un conjunto único de códigos genéticos y símbolos de información. La propuesta del "Dogma Central" en la década de 1950, el descubrimiento de la transcriptasa inversa en la década de 1970 y el establecimiento de la tecnología del ADN recombinante abrieron nuevas perspectivas para el desarrollo de la biología molecular.
Estos logros no sólo proporcionan medios importantes para estudiar el complejo control regulatorio de genes a nivel molecular, sino que también dan lugar a un nuevo campo técnico y científico basado en la biología molecular: la ingeniería genética, que ha dirigido cambios en los rasgos genéticos biológicos de los humanos. nuevos caminos con la creación de nuevas especies.
En la década de 1950, con el desarrollo de métodos de determinación de la estructura química de proteínas y ácidos nucleicos, se descubrió que siempre que se compararan las estructuras de proteínas o ácidos nucleicos que desempeñan el mismo papel en organismos de diferentes especies , la estructura de la proteína o del ácido nucleico se determinará en función de la estructura de la proteína o del ácido nucleico. El grado de diferencia estructural puede determinar la distancia en la relación genética entre organismos de diferentes especies. Cuanto más estrecha es la relación genética entre especies, más similares son sus estructuras de proteínas o ácidos nucleicos, por el contrario, mayores son sus diferencias; En base a esto, se puede obtener un pedigrí que refleje la evolución biológica. La molécula de proteína citocromo C se encuentra en las células de varias especies que respiran oxígeno. Analizarlo le dirá cómo se relacionan las diferentes especies. Hasta ahora se ha determinado la estructura química del citocromo C de más de 100 especies de organismos y, con la ayuda de ordenadores, se ha determinado que, en promedio, un residuo de aminoácido cambia cada 7 millones de años. Basándose en este análisis, se puede juzgar que los organismos superiores se separaron de las bacterias hace unos 2.500 millones de años. Asimismo, las plantas y los animales tuvieron un ancestro común hace unos 1.500 millones de años. Los insectos y los vertebrados tuvieron un ancestro común hace unos mil millones de años. Después de comparar las estructuras químicas del citocromo C de más de 100 especies biológicas, se ha trazado el linaje evolutivo de algunas especies biológicas. Utilizar este método para determinar la relación genética entre especies tiene mayores ventajas que confiar en diferencias morfológicas y anatómicas en el pasado. No sólo proporciona una base para juzgar la evolución de microorganismos con estructuras morfológicas muy simples, sino que también refleja la naturaleza de las actividades de la vida y calcula con mayor precisión el momento de la divergencia de las especies.
2. Avances en la ciencia del cerebro
En los últimos años, la investigación en la ciencia del cerebro ha logrado una serie de nuevos avances. Los principales son: (1) Descubrir las áreas del cerebro correspondientes a ciertas actividades de pensamiento, usando tomografía de positrones para encontrar que las personas usan el cerebro izquierdo para distinguir notas, pero principalmente usan el cerebro derecho para recordar música (2) Hay un cerebro; cierta correspondencia entre las ondas de radio y las actividades de pensamiento, y el contenido del pensamiento se puede analizar a partir de las ondas de radio (3) Se ha descubierto que las sustancias bioquímicas en el cerebro que afectan el pensamiento (la hormona adrenocorticotrópica y la hormona estimulante de los melanocitos) pueden tener un impacto importante; sobre el pensamiento; (4) La investigación en personas con cerebro dividido ha revelado la división del trabajo entre los dos hemisferios del cerebro. El hemisferio izquierdo se dedica principalmente al pensamiento lógico y el hemisferio derecho se dedica principalmente al pensamiento de imágenes, posicionamiento espacial. reconocimiento de imágenes, apreciación del color, etc. Estos logros en la ciencia del cerebro dividido también se han descubierto teóricamente algunos nuevos puntos de vista, tales como: la teoría de los circuitos neuronales del pensamiento, la teoría del pensamiento complementario, etc. Los nuevos logros y los nuevos puntos de vista son de gran importancia para el estudio de la inteligencia de los trabajadores.
(4) La aparición y el desarrollo de la ciencia de sistemas
La ciencia de sistemas surgió alrededor de la Segunda Guerra Mundial. Es una ciencia que toma los sistemas y sus mecanismos como objetos y estudia los tipos, propiedades generales y leyes del movimiento de los sistemas, incluidas teorías básicas como la teoría, la teoría de la información y la cibernética, disciplinas aplicadas como la ingeniería de sistemas y la. La teoría de la autoorganización desarrollada en los últimos años tiene el carácter de una ciencia transversal y se diferencia de las anteriores ciencia estructural (centrada en el estudio de las "cosas") y evolutiva (centrada en el estudio de las "cosas"). .Centrado en el estudio del "proceso"). Implica algunos de los mismos aspectos de objetos de investigación en muchas disciplinas. La teoría de sistemas, la teoría de la información y la cibernética combinan los mismos aspectos de diferentes objetos, como sistemas, organizaciones e información. , control, regulación, retroalimentación y otras propiedades y mecanismos, describirlos con conceptos y métodos científicos unificados y precisos, y esforzarse por utilizar herramientas matemáticas modernas para abordarlos. Por lo tanto, la ciencia de sistemas es la diversificación y complejidad de la ciencia moderna en sistemas. Es un producto inevitable del desarrollo de la civilización. Es de gran importancia para el desarrollo de la ciencia, la tecnología, la filosofía y las ciencias sociales modernas, y proporciona una "nueva herramienta" productiva y moderna para que las personas comprendan y transformen el mundo.
1. El surgimiento de la teoría de sistemas, la teoría de la información y la cibernética
En la historia del pensamiento humano, los pensadores griegos antiguos ya propusieron el concepto de "orden", "organización" , "todo" y "sistema". Para entender el mundo a través de conceptos como "parte" y "parte". La antigua teoría china del Yin Yang y los cinco elementos considera las cosas como un todo que se refuerza mutuamente. sistemas en los clásicos marxistas Sin embargo, la teoría de sistemas como principio general para estudiar varios sistemas se desarrolló en el siglo XX ~ Propuesta por el biólogo austríaco-estadounidense Bertalan Fey en la década de 1930.
Bajo el impacto del desarrollo de la ciencia, la tecnología y la producción modernas, los científicos ya no pueden tolerar el uso de puntos de vista y métodos aislados, estáticos y unilaterales para observar el mundo. En particular, el mecanicismo y el vitalismo han obstaculizado gravemente el desarrollo de la biología. . Por lo tanto, Bertalanffy y algunos científicos propusieron la teoría de los organismos a mediados de la década de 1920, crearon el método de investigación biológica de la teoría de sistemas de organismos, aplicaron conceptos y modelos matemáticos como la coordinación, el orden y el propósito al estudio de los organismos, y abogaron por tratar a los organismos como A. Todo o sistema que explica la esencia de los fenómenos de la vida desde la perspectiva de la relación entre los organismos y el medio ambiente, explicando así fenómenos de la vida que no pueden explicarse mediante mecanismos anteriores. Las ideas básicas de la teoría organicista de Bertalanffy son: (1) perspectiva holística; (2) estructura dinámica y perspectiva dinámica (3) perspectiva de jerarquía organizacional; Estas ideas básicas han incluido el contenido básico de la teoría general de sistemas propuesta posteriormente por Bertalanffy. De 1932 a 1937 publicó "Biología teórica", "Teoría del desarrollo moderno", "Sobre la teoría general de sistemas" y otros trabajos, que sentaron las bases de la teoría de sistemas moderna.
La teoría de la información nació en la década de 1940 a partir del desarrollo de la tecnología de la comunicación moderna. Es una disciplina emergente que estudia cuestiones como la adquisición, el almacenamiento, la transmisión, la medición, el procesamiento y la utilización de la información. Antes de la década de 1930, la revolución científica y tecnológica y la revolución industrial se manifestaban principalmente en el ámbito energético, como la aparición de nuevas máquinas eléctricas y máquinas herramienta. Su esencia es la extensión de los órganos sensoriales y efectores humanos y la liberación del trabajo físico humano. Después de la década de 1930, los cambios revolucionarios en la ciencia y la tecnología se reflejaron principalmente en la información, incluida la transmisión, el almacenamiento, el procesamiento, el procesamiento y otras tecnologías de la información, así como el desarrollo de las comunicaciones, las máquinas de control y la inteligencia artificial. Su esencia es la extensión de los órganos pensantes de las personas y la liberación del trabajo mental de las personas.
En 1924, Nyquist de Estados Unidos y Gupf y Muller de Alemania descubrieron que la velocidad de transmisión de señales eléctricas es proporcional al ancho de banda del canal, planteando así por primera vez la cuestión de la información. En 1928, Hartley publicó "Transmisión de información", y propuso por primera vez que la información es la cantidad de información contenida en el mensaje, y que los mensajes como códigos y símbolos son formas específicas de información. También planteó la cuestión de la cuantificación de la información, creyendo que el logaritmo de la probabilidad de aparición de un mensaje puede utilizarse para medir la información contenida en él. Por ejemplo, se seleccionan N símbolos de S símbolos para formar un conjunto de mensajes. Luego están las posibilidades *** SN. Su contenido de información es H = N logS. Esta teoría es el origen de la teoría de la información moderna, pero no atrajo la atención de la gente en ese momento. Hasta la Segunda Guerra Mundial, surgieron una tras otra algunas nuevas tecnologías relacionadas con la tecnología de las comunicaciones, como el radar, las comunicaciones por radio, las computadoras electrónicas, la tecnología de pulsos, etc., que proporcionaron una base técnica para el establecimiento de la teoría de la información. Al mismo tiempo, la teoría de la probabilidad, que es la base matemática de la teoría de la información, también se ha desarrollado rápidamente. En tales condiciones, muchos científicos han estudiado las teorías básicas de la teoría de la información desde diferentes ángulos. En 1948, Shannon publicó "La teoría matemática de la comunicación", aplicando métodos estadísticos matemáticos en física al campo de la comunicación, proponiendo la fórmula de la información como negentropía y el concepto de cantidad de información, dando la definición de información y sentando las bases de la moderna. fundamento de la teoría de la información. Desde entonces, la teoría de la información ha surgido como una disciplina independiente. Sin embargo, la teoría de la información en este momento se limitaba principalmente a la teoría de la comunicación. A medida que la teoría de la información penetra en campos como la psicología, la neurofisiología, la biología y la lingüística, el significado de teoría de la información se vuelve cada vez más amplio. Durante más de 40 años, la teoría de la información, la teoría de sistemas y la cibernética se han entrelazado y desarrollado rápidamente, formando una ciencia de la información integral. Sus principales contenidos incluyen: (1) Teoría de la información, que analiza temas como la calidad, cantidad y transmisión de la información, que es la base teórica; (2) Informática, que estudia las máquinas automáticas que procesan información; ciencia, que estudia principalmente el registro, almacenamiento y recuperación de información, estudiando la densidad, velocidad del almacenamiento de información, etc.
La cibernética también se produjo a partir del desarrollo de las tecnologías de la comunicación en la década de 1940. El matemático estadounidense Wiener es considerado el fundador de la cibernética y las ciencias de la información modernas. Shannon fue su alumno y fue ayudado por él en la creación de la teoría de la información. Durante la Segunda Guerra Mundial, Wiener trabajó en el diseño de instalaciones de potencia de fuego antiaérea, que requerían el uso de máquinas automáticas para controlar la puntería de los cañones antiaéreos. Entonces Weiner aplicó herramientas matemáticas al sistema de control de artillería, procesó las series temporales de trayectorias de vuelo y propuso un conjunto de métodos óptimos para predecir hacia dónde volaría el avión para que la artillería pudiera impactar con precisión.
Una cuestión importante en el sistema de control de artillería es cómo retroalimentar el error del dispositivo de control como base para corregir el siguiente paso de control. Wiener aprendió del fisiólogo Rosenbluth que el sistema nervioso humano es similar al sistema de control de la artillería. Ambos tienen problemas de retroalimentación insuficiente y excesiva. Son esencialmente una especie de procesamiento de información. Entonces comenzamos a encontrar los puntos más comunes en el control y la comunicación entre humanos, animales y máquinas. En 1943, Wiener y Rosenbluth publicaron conjuntamente el artículo "Behavior, Purpose and Teleology", demostrando que la determinación es una actividad de retroalimentación negativa. En 1948 se publicó el libro de Wiener "Cibernética", que marcó el establecimiento formal de la cibernética. En 1950, Wiener publicó el libro "Todo el mundo tiene una utilidad: cibernética y sociedad", que ofrecía una explicación más extensa y popular de la cibernética. Estrechamente vinculados al desarrollo de la ciencia de la información, los conceptos y métodos básicos de la cibernética se han aplicado a diversos campos científicos específicos. Los objetos de investigación se han expandido desde los humanos y las máquinas a muchos sectores como el medio ambiente, la ecología, la sociedad, el ejército, la economía, etc. ., haciendo de la cibernética un paso hacia la ciencia aplicada se ha desarrollado rápidamente. Sus subdisciplinas incluyen principalmente: (1) cibernética de ingeniería; (2) cibernética biológica; (3) cibernética social y cibernética económica; (4) teoría de grandes sistemas (5) inteligencia artificial, es decir, simulación inteligente;
2. Nuevos avances en la ciencia de sistemas
Después de la década de 1950, hubo un auge en el estudio de la teoría de sistemas moderna y aparecieron una tras otra varias teorías de sistemas nuevas, como: la teoría de la estructura disipativa de Prigogine, la sinergia de Haken, Feigenbaum et al. La teoría del caos de ., la teoría del hiperciclo de Egan y la teoría de los sistemas vivos de Miller.
La teoría de la estructura disipativa fue propuesta por primera vez por el biólogo teórico belga Prigogine en la Conferencia Internacional de 1969 sobre "Física Teórica y Biología". La segunda ley de la termodinámica propuesta por el físico alemán Clausius en 1850 no puede explicar el proceso evolutivo de los sistemas biológicos del desorden al orden, de la simplicidad a la complejidad y del nivel bajo al alto. Esto despertó el interés de la escuela general de termodinámica de Prigogine. Durante 20 años, de 1946 a 1967, la Escuela Prigogine consideró las condiciones para la formación de estructuras ordenadas de sistemas físicos o biológicos como una nueva dirección para llevar a cabo la exploración teórica, y se centró en si la generación de nuevas estructuras está relacionada con el equilibrio. centro la distancia es relevante para este tema. En 1969, finalmente descubrieron que cuando un sistema abierto pasa de un estado de equilibrio a un estado cercano al equilibrio y luego a una región no lineal alejada del estado de equilibrio, el cambio de un determinado parámetro en el sistema alcanza un cierto umbral, y a través de fluctuaciones, el sistema puede mutar del estado desordenado original a un estado ordenado en el tiempo, el espacio o la función, y se forma una estructura ordenada dinámica y estable. Este nuevo estado ordenado debe intercambiar constantemente materia, energía e información con el mundo exterior para mantener una cierta estabilidad y no ser destruido por pequeñas perturbaciones del mundo exterior, por eso se le llama estructura disipativa. Esta estructura disipativa puede producir fenómenos de autoorganización, por lo que la teoría de la estructura disipativa también se denomina "teoría de la autoorganización de sistemas de no equilibrio". Resuelve el problema de cómo un sistema abierto se transforma del desorden al orden y proporciona buenos métodos de pensamiento para abordar las relaciones entre reversibilidad e irreversibilidad, orden y desorden, equilibrio y no equilibrio, todo y parte, determinismo y aleatoriedad, etc. , dando así un gran paso adelante a la teoría general de sistemas.
Synergetics fue fundada en 1970 por el físico alemán H. Haken. Se basa en la teoría de la información, la cibernética, la teoría de las catástrofes, etc., y utiliza un método que combina estadística e investigación dinámica. Por analogía, establece un conjunto completo de modelos matemáticos y planes de procesamiento para los fenómenos desde el desorden hasta el orden en varios sistemas. . Es un gran avance y una extensión de la teoría de la estructura disipativa, y también es una teoría sobre la autoorganización. Señala además que la clave para la transformación de un sistema del desorden al orden no reside en el equilibrio o desequilibrio termodinámico. No importa qué tan lejos esté del estado de equilibrio, sino siempre que sea un sistema abierto compuesto por una gran cantidad de subsistemas. La teoría de la estructura disipativa solo analiza la transformación de sistemas alejados del equilibrio del desorden al orden, mientras que la sinergia no solo analiza la "sinergia" del sistema, sino que también aborda la transformación de sistemas cercanos al equilibrio del desorden al orden. Inicialmente, la sinergética se limitó al estudio de problemas de ordenamiento en el tiempo y el espacio en un sistema abierto en desequilibrio. En 1978, Haken amplió el contenido de la sinergia al ordenamiento funcional en su artículo "Synergetics: Latest Trends and Developments". En 1979, Haken también notó la importancia de los fenómenos del caos y creía que un sistema abierto en desequilibrio no sólo puede pasar del desorden al orden, sino también del orden al caos (refiriéndose al movimiento irregular descrito por ecuaciones decisivas). Este descubrimiento lleva la sinergia a una nueva etapa.
En 1981, Haken señaló en el artículo "El pensamiento físico en los años 1980" que también existen estructuras ordenadas en el universo. Estas explicaciones, ya sea en el campo macroscópico o microscópico, siempre que sea un sistema abierto, puede presentar una estructura ordenada en desequilibrio bajo ciertas condiciones y puede convertirse en el contenido de investigación de la sinergia.