sábado, 27 de noviembre de 2010

Tectonicas de Placas




La tectónica de placas
(del griego τεκτων, tekton, "el que construye") es una teoría geológica que explica la forma en que está estructurada la litosfera (la porción externa más fría y rígida de la Tierra). La teoría da una explicación a las placas tectónicas que forman la superficie de la Tierra y a los desplazamientos que se observan entre ellas en su deslizamiento sobre el manto terrestre fluido, sus direcciones e interacciones. También explica la formación de las cadenas montañosas (orogénesis). Así mismo, da una explicación satisfactoria de por qué los terremotos y los volcanes se concentran en regiones concretas del planeta (como el cinturón de fuego del Pacífico) o de por qué las grandes fosas submarinas están junto a islas y continentes y no en el centro del océano.

Vectores
De velocidad de las placas tectónicas obtenidos mediante posicionamiento preciso GPS.Las placas tectónicas se desplazan unas respecto a otras con velocidades de 2,5 cm/año[1] lo que es, aproximadamente, la velocidad con que crecen las uñas de las manos. Dado que se desplazan sobre la superficie finita de la Tierra, las placas interaccionan unas con otras a lo largo de sus fronteras o límites de provocando intensas deformaciones en la corteza y litosfera de la Tierra, lo que ha dado lugar a la formación de grandes cadenas montañosas (verbigracia los Andes y Alpes) y grandes sistemas de fallas asociadas con éstas (por ejemplo, el sistema de fallas de San Andrés). El contacto por fricción entre los bordes de las placas es responsable de la mayor parte de los terremotos. Otros fenómenos asociados son la creación de volcanes (especialmente notorios en el cinturón de fuego del océano Pacífico) y las fosas oceánicas.

Existen, en total, 15 placas :

Placa Africana
Placa Antártica
Placa Arábiga
Placa de Cocos
Placa del Caribe
Placa de las Carolinas
Placa Escocesa (Scotia)
Placa Euroasiática
Placa Filipina
Placa Indo-Australiana
Placa Juan de Fuca
Placa de Nazca
Placa Norteamericana
Placa del Pacífico
Placa Sudamericana

Estas, junto a otro grupo más numeroso de placas menores se mueven unas contra otras. Se han identificado tres tipos de bordes: convergente (dos placas chocan una contra la otra), divergente (dos placas se separan) y transformante (dos placas se deslizan una junto a otra).

La teoría

De la tectónica de placas se divide en dos partes, la de deriva continental, propuesta por Alfred Wegener en la década de 1910, y la de expansión del fondo oceánico, propuesta y aceptada en la década de 1960, que mejoraba y ampliaba a la anterior. Desde su aceptación ha revolucionado las ciencias de la Tierra, con un impacto comparable al que tuvieron las teorías de la gravedad de Isaac Newton y Albert Einstein en la Física o las leyes de Kepler en la Astronomía.

Origen de las placas tectónicas

Se piensa que su origen se debe a corrientes de convección en el interior del manto terrestre, en la capa conocida como astenosfera, las cuales fragmentan a la litosfera. Las corrientes de convección son patrones circulatorios que se presentan en fluidos que se calientan en su base. Al calentarse la parte inferior del fluido se dilata. Este cambio de densidad produce una fuerza de flotación que hace que el fluido caliente ascienda. Al alcanzar la superficie se enfría, desciende y se vuelve a calentar, estableciéndose un movimiento circular auto-organizado. En el caso de la Tierra se sabe, a partir de estudios de reajuste glaciar, que la astenosfera se comporta como un fluido en escalas de tiempo de miles de años y se considera que la fuente de calor es el núcleo terrestre. Se estima que éste tiene una temperatura de 4500 °C. De esta manera, las corrientes de convección en el interior del planeta contribuyen a liberar el calor original almacenado en su interior, que fue adquirido durante la formación de la Tierra.

Así, en zonas donde dos placas se mueven en direcciones opuestas (como es el caso de la placa Africana y de Norteamérica, que se separan a lo largo de la cordillera del Atlántico) las corrientes de convección forman nuevo piso oceánico, caliente y flotante, formando las cordilleras meso-oceánicas o centros de dispersión. Conforme se alejan de los centros de dispersión las placas se enfrían, tornándose más densas y hundiéndose en el manto a lo largo de zonas de subducción, donde el material litosférico es fundido y reciclado.

Una analogía frecuentemente empleada para describir el movimiento de las placas es que éstas "flotan" sobre la astenósfera como el hielo sobre el agua. Sin embargo, esta analogía es parcialmente válida ya que las placas tienden a hundirse en el manto como se describió anteriormente

Antecedentes históricos

La tectónica de placas tiene su origen en dos teorías que le precedieron: la teoría de la deriva continental y la teoría de la expansión del fondo oceánico.
La primera fue propuesta por Alfred Wegener a principios del siglo XX y pretendía explicar el intrigante hecho de que los contornos de los continentes ensamblan entre sí como un rompecabezas y que éstos tienen historias geológicas comunes. Esto sugiere que los continentes estuvieron unidos en el pasado formando un supercontinente llamado Pangea (en idioma griego significa "todas las tierras") que se fragmentó durante el período Pérmico, originando los continentes actuales. Esta teoría fue recibida con escepticismo y eventualmente rechazada porque el mecanismo de fragmentación (deriva polar) no podía generar las fuerzas necesarias para desplazar las masas continentales. -Las placas se mueven y causan terremotos-. La teoría de expansión del fondo oceánico fue propuesta hacia la mitad del siglo XX y está sustentada en observaciones geológicas y geofísicas que indican que las cordilleras meso-oceánicas funcionan como centros donde se genera nuevo piso oceánico conforme los continentes se alejan entre sí. Esto fue propuesto por John Tuzo Wilson.

La teoría de la tectónica de placas fue forjada principalmente entre los años 50 y 60 y se le considera la gran teoría unificadora de las Ciencias de la Tierra, ya que explica una gran cantidad de observaciones geológicas y geofísicas de una manera coherente y elegante. A diferencia de otras ramas de las ciencias, su concepción no se le atribuye a una sola persona como es el caso de Isaac Newton o Charles Darwin. Fue producto de la colaboración internacional y del esfuerzo de talentosos geólogos (Tuzo Wilson, Walter Pitman), geofísicos (Harry Hammond Hess, Allan V. Cox) y sismólogos (Linn Sykes, Hiroo Kanamori, Maurice Ewing), que poco a poco fueron aportando información acerca de la estructura de los continentes, las cuencas oceánicas y el interior de la Tierra.

Límites de placas
Son los bordes de una placa y es aquí donde se presenta la mayor actividad tectónica (sismos, formación de montañas, actividad volcánica), ya que es donde se produce la interacción entre placas. Hay tres clases de límite:

Divergentes: son límites en los que las placas se separan unas de otras y, por lo tanto, emerge magma desde regiones más profundas (por ejemplo, la dorsal mesoatlántica formada por la separación de las placas de Eurasia y Norteamérica y las de África y Sudamérica).
Convergentes: son límites en los que una placa choca contra otra, formando una zona de subducción (la placa oceánica se hunde bajo de la placa continental) o un cinturón orogénico (si las placas chocan y se comprimen). Son también conocidos como "bordes activos".
Transformantes: son límites donde los bordes de las placas se deslizan una con respecto a la otra a lo largo de una falla de transformación.
En determinadas circunstancias, se forman zonas de límite o borde, donde se unen tres o más placas formando una combinación de los tres tipos de límites.

Límite divergente o constructivo: las dorsales

Artículo principal: Borde divergente
Son las zonas de la litosfera en que se forma nueva corteza oceánica y en las cuales se separan las placas. En los límites divergentes, las placas se alejan y el vacío que resulta de esta separación es rellenado por material de la corteza, que surge del magma de las capas inferiores. Se cree que el surgimiento de bordes divergentes en las uniones de tres placas está relacionado con la formación de puntos calientes. En estos casos, se junta material de la astenosfera cerca de la superficie y la energía cinética es suficiente para hacer pedazos la litosfera. El punto caliente que originó la dorsal mesoatlántica se encuentra actualmente debajo de Islandia, y el material nuevo ensancha la isla algunos centímetros cada siglo.

Un ejemplo típico de este tipo de límite son las dorsales oceánicas (por ejemplo, la dorsal mesoatlántica) y en el continente las grietas como el Gran Valle del Rift.

Límite convergente o destructivo

La placa oceánica se hunde por debajo de la placa continental.Artículo principal: Borde convergente
Las características de los bordes convergentes dependen del tipo de litosfera de las placas que chocan. Con frecuencia las placas no se deslizan en forma continua; sino que se acumula tensión en ambas placas hasta llegar a un nivel de energía acumulada que sobrepasa el necesario para producir el deslizamiento brusco de la placa marina. La energía potencial acumulada es liberada como presión o movimiento; debido a la titánica cantidad de energía almacenada, estos movimientos ocasionan terremotos, de mayor o menor intensidad. Los puntos de mayor actividad sísmica suelen asociarse con este tipo límites de placas.

Cuando una placa oceánica (más densa) choca contra una continental (menos densa) la placa oceánica es empujada debajo, formando una zona de subducción. En la superficie, la modificación topográfica consiste en una fosa oceánica en el agua y un grupo de montañas en tierra.
Cuando dos placas continentales colisionan (colisión continental), se forman extensas cordilleras formando un borde de obducción. La cadena del Himalaya es el resultado de la colisión entre la placa Indoaustraliana y la placa Euroasiática.
Cuando dos placas oceánicas chocan, el resultado es un arco de islas (por ejemplo, Japón).
Límite transformante o conservativo

Artículo principal: Borde transformante
El movimiento de las placas a lo largo de las fallas de transformación puede causar considerables cambios en la superficie, lo que es particularmente significativo cuando esto sucede en las proximidades de un asentamiento humano. Debido a la fricción, las placas no se deslizan en forma continua; sino que se acumula tensión en ambas placas hasta llegar a un nivel de energía acumulada que sobrepasa el necesario para producir el movimiento. La energía potencial acumulada es liberada como presión o movimiento en la falla. Debido a la titánica cantidad de energía almacenada, estos movimientos ocasionan terremotos, de mayor o menor intensidad.

Un ejemplo de este tipo de límite es la falla de San Andrés, ubicada en el Oeste de Norteamérica, que es parte del sistema de fallas producto del roce entre la placa Norteamericana y la del Pacífico.

Medición de la velocidad de las placas tectónicas
La medición actual de la velocidad de las placas tectónicas se realiza mediante medidas precisas de GPS. La velocidad antigua de las placas se obtiene mediante la restitución de cortes geológicos (en corteza continental) o mediante la medida de la posición de las inversiones del campo magnético terrestre registradas en el fondo oceánico.

Evolucion del Universo




El conocimiento
que en la antigüedad se tenía de los astros se plasma en el Modelo Tolemaico que perduró cerca de veinte siglos. Éste describía el universo como compuesto por la Tierra, el Sol, la Luna y los planetas cercanos y consideraba a las estrellas como fuegos fijos situados sobre una esfera que rodeaba al universo.

Esta visión del cosmos se amplió sucesivamente, reflejando cada vez más la realidad objetiva, a partir de la sugerencia hecha en 1584 por el sacerdote Giordano Bruno (incinerado en la hoguera por sus ideas) y comprobada por Galileo Galilei, de que las estrellas son soles como el nuestro, visión continuada con la demostración de Edwin Hubble en 1923 de que parte de las luces que observamos como si fueran estrellas son en realidad grandes conglomerados de estrellas, galaxias como nuestra Vía Láctea en la que estamos inmersos, pero tan distantes que a simple vista se ven solo como un punto. En esta misma dirección hoy hay sugerencias de ampliar la noción de Universo, lo que es muy controvertido aunque no improbable, basándose en la proyección de nociones conocidas de la física hacia procesos de los cuales aún no tenemos datos experimentales.

Modernamente, para explicar la evolución estelar se han desarrollado distintos modelos que pretenden dar cuenta del Universo a partir de los principales hechos observados. El más difundido entre el gran público es a su vez el ampliamente dominante en la comunidad científica, el modelo de la Gran Explosión Caliente (Big Bang). Sin embargo, no es universalmente aceptado, hay un grupo reducido de investigadores que lo cuestionan desde diferentes ángulos y con distintas respuestas alternativas. A su vez dentro de la mayoría que sostiene la teoría dominante, hay diferentes posiciones.

En este trabajo se van a presentar el modelo de la Gran Explosión y algunos de los principales modelos de evolución estelar alternativos disponibles en la literatura. Se discutirá el alcance de los mismos en función de los conocimientos físicos en que se basan.

Previamente se van a resumir los principales hechos observacionales sobre la evolución y estructura del Universo.

El Sol




y las otras estrellas no son más que enormes esferas de gas incandescente. En su interior, la fuerza de gravedad y la presión (producto de la agitación térmica de las partículas) compiten entre sí. La gravedad intenta atraerlo todo hacia el centro; pero esta compresión calienta el gas y la presión resultante equilibra la gravedad. La superficie del Sol brilla al rojo blanco, a una temperatura cercana a los 6.000ºC. Pero para proporcionar la presión suficiente su centro debe estar mucho más caliente, por encima de los 15 millones de grados.

¿Qué es lo que hace brillar al Sol? Sin una fuente de combustible, la gravedad haría que la estrella se contrajera gradualmente a medida que el calor se escapa de su interior. El Sol genera calor por el mismo proceso que explotan las bombas de hidrógeno. Los átomos de hidrógeno son las estructuras atómicas menos complejas: su núcleo consiste en un solo protón. A medida que un gas se calienta, los átomos que lo forman se agitan más deprisa. En el centro del Sol, los protones chocan con tanta violencia que se fusionan. Una serie de estas reacciones puede fusionar cuatro núcleos de hidrógeno (o protones) en un núcleo de helio. Como el núcleo de helio pesa un 0,7% menos que los cuatro átomos de hidrógeno originales, la conversión del hidrógeno en helio proporciona energía de acuerdo a la relación de Einstein E=mc2 (la masa, m, perdida en el proceso se transforma en energía, E, con la velocidad de la luz al cuadrado, c2, como factor de proporcionalidad). Esta 'quema' del hidrógeno es suficiente para que el Sol brille durante varios miles de millones de años. A diferencia de las explosiones nucleares, la energía producida en una estrella se libera de manera regular y 'controlada'. Esto se debe a que la gravedad, a pesar de la enorme presión producida en el centro, presiona las capas exteriores con firmeza suficiente para 'sujetar la tapa'. En el Sol, la producción de energía de fusión compensa precisamente la pérdida de calor superficial, del cual depende la vida terrestre.

El Sol




Nació a partir de una nube interestelar. Esta nube empezó girando de forma casi imperceptible, pero a medida que se contraía por efecto de la gravedad su giro se fue haciendo cada vez más rápido, lo que hizo que la fuerza centrífuga creciera hasta compensar la atracción gravitatoria. A continuación se formó un disco en forma de remolino alrededor del proto-Sol, el cual siguió contrayéndose gradualmente, pero esta contracción lenta se detuvo cuando el centro se calentó lo suficiente para que se iniciara la fusión del hidrógeno. Mientras tanto, el disco circundante se enfriaba; parte del gas se condensó en forma de polvo y fragmentos rocosos, los cuales se aglomeraron formando planetas.

El Sol quedó así rodeado de un sistema planetario y se situó en un estado cuasi estacionario, convirtiendo el hidrógeno en helio en forma lenta pero constante. Estas reacciones producen tanto calor que, a pesar de tener 4.500 millones de años, el Sol aún no ha consumido ni la mitad de su hidrógeno. Sus reservas le permitirán seguir brillando durante otros 5.000 millones de años. Luego se expandirá hasta convertirse en lo que se conoce como una "gigante roja", tan grande y brillante que absorberá los planetas interiores y volatilizará toda la vida terrestre.

¿Cómo es este proceso que ha podido ser observado en otros soles de nuestras galaxias de masas similares?

A medida que se va consumiendo el combustible -el hidrógeno- la estrella se contrae por acción de la gravedad, lo que genera una mayor agitación térmica de los átomos, creándose así las condiciones para generar una nueva reacción en la que el helio se convierte en carbono y oxígeno liberando una energía mayor. Esa presión que se genera ya no puede ser contenida por la acción gravitatoria y se produce la expansión. Después de esta fase las capas exteriores se desprenderán violentamente y el núcleo se contraerá hasta convertirse en lo que se conoce como una enana blanca, una estrella compacta no mayor que la Tierra, pero cientos de veces más pesada. Esta estrella brillará con un fulgor azulado, más pálido que el de nuestra Luna, rodeada de los restos de ese extinto sistema solar.

La disciplina que estudia estos procesos es la astrofísica. La astrofísica, al igual que describe la evolución del Sol, puede calcular los ciclos vitales de estrellas con diferentes masas gaseosas iniciales: la mitad, el doble, cuatro veces más pesadas que el Sol, etc. (ver Recuadro 1).

La relación entre la atracción gravitatoria y las reacciones nucleares que hacen presión hacia fuera provoca distintos comportamientos cualitativos, dependiendo de la masa que provee la fuerza de atracción gravitatoria. Las estrellas de mayor masa, en general, son más brillantes y su ciclo vital transcurre más deprisa. Estos cálculos están basados en los datos físicos de las reacciones posibles entre átomos y núcleos obtenidos a partir de experimentos de laboratorio. Estas teorías se verifican mediante la observación de poblaciones enteras de estrellas. El mejor campo de pruebas para comprobar las teorías sobre la evolución estelar son los llamados cúmulos globulares, enjambres de millones de estrellas de diferentes tamaños, formadas al mismo tiempo y unidas por su mutua atracción gravitatoria.

Las enanas blancas, las 'cenizas' que dejan estrellas como el Sol cuando completan sus ciclos vitales, son objetos muy comunes en nuestra galaxia, pero su escaso brillo hace difícil su estudio. Las enanas blancas recién formadas tienen superficies muy calientes (y son más azules que blancas), pero se enfrían gradualmente porque no pueden compensar con energía nuclear las pérdidas por radiación. Podemos determinar la temperatura de las enanas blancas a partir de su color (que se enrojece a medida que se enfrían), y la teoría nos proporciona su edad (es decir, el tiempo transcurrido desde que la estrella madre agotó su combustible nuclear). Las enanas blancas más frías tienen varios miles de millones de años, de lo que podemos inferir que algunas estrellas agotaron su combustible nuclear antes de que apareciera nuestro sistema solar.

No todos los sucesos cósmicos transcurren con lentitud. A veces las estrellas explotan de manera catastrófica originando el fenómeno conocido con el nombre de supernova. Durante unas pocas semanas, la explosión de una supernova cercana puede superar en luminosidad a cualquier otro objeto del cielo nocturno; este objeto seguirá siendo visible durante unos pocos milenios más, mientras se expande y difumina gradualmente. Después se hará tan difuso que se confundirá con el polvo y el gas diluido que llena el espacio interestelar.

La razón de la importancia de estos sucesos es que de no ser por las supernovas nunca habrían aparecido en la Tierra elementos como el carbono y oxígeno -entre otros- esenciales para la vida.

En nuestro planeta encontramos de forma natural noventa y dos tipos diferentes de átomos, pero algunos son mucho más comunes que otros. Por cada átomo de carbono que encontramos, podemos hallar veinte de oxígeno y unos 5 de nitrógeno o de hierro. En cambio, el oro es centenares de millones de veces más escaso que el oxígeno, y otros elementos, como el uranio, son aún más raros.

Todas las palabras de nuestra lengua están constituidas a partir de 29 letras. De la misma manera, los átomos pueden combinarse en moléculas de muchas maneras diferentes: algunas tan simples como el agua (dos hidrógenos y un oxígeno) o el dióxido de carbono (un carbono y dos oxígenos), otras compuestas por miles de átomos. Los principales ingredientes de los organismos vivos (incluidos los seres humanos) son los átomos de carbono y oxígeno, ensamblados (junto a otros) en cadenas moleculares de enorme complejidad. Si esos átomos en particular no fueran comunes en la Tierra, nuestra forma de vida no sería posible.

Los átomos




están formados a su vez por partículas más simples. Cada tipo de átomo tiene un número específico de protones (con carga eléctrica positiva) y neutrones (de masa aproximadamente igual a los protones pero sin carga eléctrica) en su núcleo, y un número igual de electrones (de masa muchísimo menor y carga eléctrica negativa) en órbitas a su alrededor: esta cantidad de protones o electrones se denomina "número atómico". El número atómico del hidrógeno es 1, mientras que el del uranio es 92. Las propiedades químicas de los elementos están dadas por este número, o sea, la cantidad de carga que poseen.

Los núcleos




De todos los átomos están formados por las mismas partículas elementales (protones y neutrones), lo cual permite la transmutación de los elementos de unos en otros. Esto sucede, por ejemplo, en una explosión nuclear. No obstante, los núcleos son lo bastante "robustos" para sobrevivir a las transformaciones químicas que se dan en los seres vivos o en los laboratorios.

Los diferentes tipos de átomos que pueden encontrarse en la Tierra existen en las mismas proporciones que cuando se formó el sistema solar, hace 4.500 millones de años: ningún proceso natural puede crear o destruir átomos en la Tierra (la única excepción son los "elementos radioactivos raros" que se transmutan en forma espontánea). ¿Es una casualidad la proporción en que se hallan los distintos elementos? Los astrónomos dicen que no es una casualidad y han proporcionado otra teoría: el universo tenía átomos simples que se fusionaron y convirtieron en otros más pesados dentro de las estrellas supernovas.

Ni siquiera el centro del Sol es lo bastante caliente para producir estas transmutaciones. Las estrellas diez veces más pesadas que el Sol brillan mucho más, y evolucionan de una forma más complicada y dramática. Su hidrógeno central se consume (transformándose en helio) en unos cien millones de años (menos del 1% de la vida del Sol). Luego la gravedad comprime estas estrellas pesadas haciendo que su temperatura interna aumente aún más, hasta que los átomos de helio se fusionan para producir núcleos de átomos más pesados (como el carbono de 6 protones, oxígeno de 8 protones, y hierro de 26 protones). A partir de este momento se desarrolla una estructura que recuerda una cebolla: una capa exterior de carbono rodea otra de oxígeno, que a su vez rodea otra de silicio. Las capas internas más calientes contienen elementos superiores de la tabla periódica de los elementos (que los agrupa de acuerdo a sus propiedades químicas) y rodean un núcleo constituido principalmente por hierro.

Cuando el combustible se acaba (en otras palabras, cuando el centro caliente se ha convertido completamente en hierro), la gran estrella se enfrenta a una crisis. Un aplastamiento catastrófico comprime su centro (la gravedad supera la presión) hasta la densidad de un núcleo atómico, iniciando una explosión colosal que expulsa las capas externas a más de 10.000 kilómetros por segundo. Esta explosión se manifiesta como una supernova. Los residuos contienen el resultado de los procesos nucleares que mantuvieron el brillo de la estrella durante toda su vida. Esta mezcla contiene grandes cantidades de oxígeno y carbono, así como trazas de muchos otros elementos formados durante la explosión.

La teoría de la evolución estelar y la nucleogénesis (formación de los núcleos) reconstruye la historia de los átomos remontándose hasta épocas anteriores a la formación de la Tierra. Desde esta perspectiva, una galaxia aparece como un vasto sistema evolutivo. Dentro de las estrellas, el hidrógeno original se transforma en las piezas básicas de la vida (carbono, oxígeno, hierro y demás). Parte de este material vuelve al espacio interestelar y se recicla en forma de nuevas generaciones de estrellas. Así, por ejemplo, el gas a partir del cual se formó nuestra galaxia, tiene una proporción de "elementos pesados" que se formaron durante tres generaciones previas de estrellas. Como dice M. Rees: "...la mismísima raza humana está compuesta de polvo de estrellas, o menos románticamente, de desechos nucleares del combustible que hace brillar las estrellas"1.

Las proporciones calculadas de los elementos son razonablemente cercanas a las proporciones observadas en nuestro sistema solar. Sin embargo, las cantidades de carbono, oxigeno, sodio y otros elementos pesados no son las mismas en otras partes del universo. Sus abundancias relativas son menores en las estrellas más antiguas. Esto es normal si los elementos se sintetizan gradualmente en generaciones sucesivas de estrellas: las más viejas habrían surgido de un material menos "contaminado" que las más nuevas. Una segunda observación es que las abundancias de estos elementos son más altas en los lugares donde la formación de estrellas es más rápida y el reciclado más reciente.

En un futuro lejano, tras la muerte de nuestro sistema solar, esos átomos se dispersarán otra vez por la galaxia y se incorporarán a nuevas estrellas, repitiendo un nuevo ciclo.

Ahora mismo están naciendo nuevas estrellas. A unos 1.500 años luz2 de distancia se encuentra la nebulosa de Orión, con gas y polvo suficiente para formar millones de estrellas. Además de estrellas jóvenes y brillantes, la nebulosa de Orión contiene protoestrellas en proceso de condensación que aún no están lo bastante calientes para empezar a quemar su combustible nuclear. Discos de polvo y gas giran alrededor de algunas protoestrellas. Se trata de sistemas solares embrionarios: las partículas de polvo se condensarán en "protoplanetas" rocosos, que a su vez evolucionarán en planetas.

Hasta hace poco se atribuía la formación de sistemas planetarios a sucesos improbables e inusuales. Pero ahora está claro que la formación de planetas no requiere ningún accidente inusual. Los planetas son una consecuencia natural de la formación de estrellas. Además, su formación es inevitable a menos que el material de la protoestrella tenga rotación nula, lo cual sí sería muy poco probable. Así pues, los sistemas planetarios deben encontrarse por doquier. Pero la observación de los planetas plenamente formados que orbitan en torno a otras estrellas es sumamente difícil por su falta de luminosidad.

Otros objetos muy luminosos que existen en el Universo son los cuásares (ver Recuadro 1). Estos multiplican por mil el brillo de la Vía Láctea entera, aunque su intensidad en la luz visible puede variar en un 50% en el transcurso de un solo día. Los cuásares más luminosos contienen agujeros negros que engloban 1.000 millones de veces la masa del sol en una región que cabría en la órbita de Plutón alrededor del Sol. Como en otros fenómenos estelares conocidos como Binarias de Rayos X, habría nubes de gas girando en círculos que se calentarían y radiarían con violencia justo antes de ser absorbidas por el agujero negro central. En ciertos casos, la materia que rodea el agujero negro lanzaría chorros de partículas cargadas, de decenas de miles de años luz de longitud. Los cuásares y sus primos hermanos, los objetos BL Lac, son los núcleos galácticos activos más luminosos; sus parientes más tranquilos reciben el nombre de galaxias de Seyfert. Hay núcleos galácticos con agujero negro masivo pero sin materia cerca que atraer, entonces no son activos, no emiten estas radiaciones, eventualmente se detectan por otras causas, por ejemplo la gravedad.

Estructura del universo

Veamos cómo es la estructura del Universo, hasta donde podemos llegar con el alcance de los instrumentos de medición disponibles en la actualidad. Empezaremos con el Sol, nuestra estrella madre, hasta llegar a las más grandes estructuras conocidas.

El Sol, la estrella de nuestro sistema solar, tiene un diámetro de 1.392.000 Km (como comparación, el diámetro de la Tierra es de unos 12.600 Km) Allí se producen reacciones nucleares de fusión, del tipo de una bomba de hidrógeno controlada, que generan la energía que mantienen la vida en la Tierra. La distancia del Sol a la Tierra es de 149.500.000 Km (1,6x10-5 años-luz). La distancia entre el Sol y Plutón, el planeta más alejado perteneciente al sistema solar, es de 5.913.520.000 Km (6,3x10-4 años-luz). La estrella más cercana al Sol, Alfa Centauri, está a una distancia de éste de 30.318.000.000.000 Km, (3,26 años luz). O sea unas 5.000 veces la distancia Sol-Plutón (radio del sistema solar).

Esta distribución de la materia, donde la distancia entre los agrupamientos de orden superior (entre soles, por ejemplo) es mucho mayor que la que separa a sistemas inferiores (distancia entre soles y planetas asociados) va a ser una característica general de la asociación de la materia a gran escala.

Tanto el Sol como Alfa Centauri forman parte de un mismo conglomerado de estrellas, la Vía Láctea. La Vía Láctea es una más de las miles de millones de galaxias distribuidas por el firmamento. Es una galaxia espiral, tiene la forma de un disco chato con cuatro brazos espirales de 98.000 años-luz de diámetro y de 980 años-luz de espesor con un bulbo esferoide aplanado en su centro de 3.300 por 20.000 años-luz. Hay aproximadamente 200.000 millones de estrellas en ella y nuestro sistema solar orbita a dos tercios de su centro tardando unos 200 millones de años en dar una vuelta en torno al mismo. Si miramos el cielo una noche despejada la Vía Láctea se ve como una franja irregular de luz que lo atraviesa ya que a simple vista no podemos ver la mayoría de estas estrellas en forma individual sino colectivamente, como un resplandor.

En el disco predominan estrellas azules relativamente jóvenes y de mediana edad y hay gas. En el bulbo predominan las estrellas rojas que son viejas (10.000 millones de años de edad o más). Otra región es el halo, zona esférica difusa que rodea todo el disco, de baja densidad y donde son mayoritarias las estrellas viejas. En el centro del bulbo hay evidencias de un agujero negro.

Hay otros tres tipos, esencialmente, de galaxias aparte de las espirales: elípticas, lenticulares e irregulares. La presencia de gas en el disco de la Vía Láctea es una característica general de las galaxias espirales e indica que la formación de estrellas se mantiene activa en ellas y tienen por lo tanto la población de estrellas más jóvenes. Estas galaxias se hallan en zonas poco densas donde su estructura no se ve muy afectada por la atracción de galaxias vecinas. Las galaxias elípticas poseen luminosidad uniforme y son similares a la zona del bulbo de una galaxia espiral. No hay gas presente, por lo tanto las estrellas son viejas. Estas galaxias se suelen hallar en regiones de alta densidad, en el centro de cúmulos galácticos (ver más adelante). Las galaxias lenticulares poseen tanto bulbo como disco pero no los brazos espirales. Tienen poco o nada de gas así que sus estrellas son viejas. Parecen ser un caso intermedio entre las espirales y elípticas. El último tipo de galaxias, las irregulares, son pequeñas, sin bulbo y forma no definida.

Las galaxias se encuentran a su vez agrupadas en grupos y cúmulos de galaxias. Los grupos de galaxias son estructuras del orden de las decenas de galaxias mientras que un cúmulo de galaxias está compuesto por cientos de galaxias. La Vía Láctea forma parte del Grupo Local junto con la galaxia de Andrómeda y otras 34 galaxias más pequeñas, distribuidas en unos pocos millones de años luz. Andrómeda, la galaxia más cercana a nuestra Vía Láctea se halla a dos millones de años luz. Un ejemplo de un cúmulo de galaxias es el Cúmulo de Virgo, que se halla cercano al Grupo Local. Virgo está compuesto por unos cuantos cientos de galaxias y se halla a unos 50 millones de años luz. La característica común de los grupos y cúmulos de galaxias es que las galaxias en ellos forman estructuras en equilibrio gravitatorio (como los planetas en nuestro sistema solar, las galaxias componentes de los grupos y cúmulos están ligados).

Los cúmulos de galaxias pueden ser regulares o irregulares. Los cúmulos regulares tienen un núcleo central concentrado y una estructura esférica bien definida. Tienen un tamaño entre 3 y 10 millones de años luz y una masa de alrededor de 1015 masas solares. Un cúmulo de galaxias muy rico es el de Coma, que posee miles de galaxias elípticas. Los cúmulos de galaxias irregulares no tienen un núcleo bien definido, poseen un rango de tamaños similar a las regulares pero son más pobres en masa, entre 1012 y 1014 masas solares. El citado cúmulo de Virgo es de este tipo.

A su vez, conjuntos de cúmulos de galaxias forman supercúmulos. Estos consisten usualmente en una cadena de unos doce cúmulos de galaxias, tienen una masa del orden de 1016 masas solares. Nuestro propio supercúmulo local está centrado en el cúmulo de Virgo y tiene una masa relativamente pobre, y un tamaño de 48,9 millones de años luz. Un supercúmulo mayor como el asociado con el cúmulo de Coma tiene un tamaño de 326 millones de años luz y unas 1.300 galaxias en su zona central.

Revolucion digital la television




1-. HISTORIA

A mediados del siglo XIX, diversos investigadores que experimentaban con la transmisión de imágenes vía ondas electromagnéticas, descubrieron la “fototelegrafía”.

Entre ellos, cabe destacar a Paul Nipkow, que en 1884 patenta su disco de exploración lumínica. 39 años más tarde, en 1923, John Logie Baird mejora el disco de Nipkow a base de células de selenio. Deben señalarse también a los norteame­ricanos Ives y Jenkins, quienes se basaron en Nipkow, y a Vladimir Zworykin, gestor del tubo iconoscopio.
Paul Nipkow
Desde la estación experimental W3XK de Washington en 1928, Jenkins comenzó a transmitir imágenes con cierta regularidad, y con una definición de 48 líneas.

Cuando Logie Baird en 1928 logra transmitir imágenes desde Londres hasta Nueva York, y demuestra la TV en color, la TV exterior con luz natural y la TV en estéreo, la BBC de Londres se interesa en sus investigaciones.

En 1929 la BBC aseguró un servicio regular de transmisión de imágenes un poco desconfiada porque pensaba que era un invento inútil, pese a ello, la transmisiones oficiales se iniciaron el 31 de Diciembre de ese año.

Zworykin inició la TV electrónica.


Comenzó sus investigaciones a principios de la década de los 20 utilizando un tubo de rayos catódicos para el aparato receptor y un sistema de exploración mecánica para la transmisión.

En 1923 comenzó la guerra por la TV a color. Antes de ésta, Zworykinn había sugerido la idea de estandarizar los sistemas de TV en todo el mundo. A principios de 1940, Estados Unidos creó la Nacional Televisión System Comitee (NTSC), que pretendía que todas las normas de fabricación de aparatos de TV fuesen compatibles entre todas las empresas, y en Julio de 1941 se estandarizó el sistema, de 325 líneas.

Los intereses económicos de las grandes compañías eran que se adoptase un sistema de color no compatible con todos los aparatos, aunque, por la cantidad de televisores que se vendieron, se decidió desarrollar una TV a color plenamente compatible.

Otro problema era que una señal en color se viera en una TV en blanco y negro y viceversa. Al final esto se corrigió, adoptando desde 1953 el nombre de comité regulador conocido como sistema NTSC.

Este desarrollo llegó también a países europeos. Francia creó su propio sistema de TV en colores: el SECAM (SEquentiel Couleur A Memorie), desarrollado en 1967 con una definición de 625 líneas. Alemania en el mismo año 67 crea el sistema PAL (Phase Alternation Line), también de 625 líneas, desarrollado por la empresa Telefunken.

2-. FUNCIONAMIENTO

Toda la imagen televisiva se forma en la superficie de un dispositivo con forma de cono llamado tubo catódico. Dentro del tubo, un haz de electrones se mueve muy rápidamente hacia delante y hacia atrás con muchísimos puntos luminosos.

Para transmitir una imagen en movimiento, todo el proceso debe completarse con el tiempo de persistencia de la imagen en la retina del ojo (a menos de una décima por segundo). Por tanto, el haz de electrones deberá analizar en seguida la imagen con su movimiento de “va y viene” horizontal, mediante una serie de líneas standard. A mayor cantidad de líneas, la definición de la imagen es mejor.

Según el standard europeo, la imagen tiene 625 líneas, a 25 por segundo. Ya hemos alcanzado la TV de alta definición (HDTV) con una imagen de 1250 líneas, a 50 por segundo.

3-. TIPOS DE TV.

Difusión Analógica:
Hasta tiempos recientes, la televisión fue totalmente analógica, y su forma de llegar a los televidentes era gracias a ondas de radio en las bvandas VHF y UHF. Pronto salieron las redes de cable que distribuían canales por las ciudades. Esta distribución se realizaba con una señal analógica, las redes de cable tenían una banda asignada.

Su desarrollo depende de la legislación de cada país.

El satélite permitió la explotación comercial para la distribución de las señales de televisión y realiza dos funciones: permitir los enlaces de las señales de un punto al otro del orbe y la distribución de la señal en difusión.

Difusión Digital:

El tipo de señal es muy resistente a las transferencias y la norma de emisión está concebida para una buena recepción. Una serie de servicios extras que acompañan a la señal de televisión, dan un valor añadido a la programación.

La difusión de la televisión digital se basa en el sistema DVB (Digital Video Broadcasting), que es el sistema utilizado en Europa. Este sistema tiene una parte común para la difusión de satélite, cable y terrestre. La parte no común es la que lo adapta a cada modo de transmisión.

Televisión Terrestre:
La difusión analógica por vía terrestre está constituida así:
Del centro del emisor se hacen señales de vídeo y audio hasta los transmisores principales. Éstos cubren una amplia zona que se va rellenando con remisores. La transmisión se realiza en las bandas UHF y VHF, aunque la última se usa poco.

La difusión de la televisión digital vía terrestre, conocida como TDT, se realiza en la misma banda de la difusión analógica.

La televisión terrestre digital dentro del sistema DVE-T utiliza la modulacion OFDM (Orthogonal Frecuency Division Multiplex), que le confiere una alta inmunidad a los ecos.

La televisión norteamericana se ha desarrollado a base de pequeñas emisoras locales que a veces se unían para la retransmisión de ciertos eventos, al contrario que Europa, donde ha habido mayoritariamente grandes cadenas nacionales.

Los sistemas de difusión digitales van a reemplazar a los analógicos. En Europa, está previsto el apagón analógico para el 2012.

Televisión por Cable:

Nace por la necesidad de llevar la televisión hasta el domicilio de los abonados, sin que éstos dispongan de receptores, reproductores y antenas complejas.

La ventaja del cable es la de disponer de un canal de retorno que permite utilizar unos servicios sin tener que usar otra infraestructura.

La dificultad de tender una red de cable en lugares de poca población hace que solamente los núcleos urbanos tengan acceso a estos servicios.

Televisión por Satélite:

La difusión vía satélite se inició con el desarrollo de la industria espacial que permitió poner en órbita satélites que emiten señales de televisión, que son recogidas por antenas parabólicas.

La ventaja de llegar a toda la superficie de un territorio concreto facilita el acceso a zonas muy remotas y aisladas. Esto hace que los programas de TV lleguen a todas partes.

La transmisión vía satélite se realiza bajo la normativa DVB-S, la energía de las señales que llegan a las antenas es muy pequeña, aunque el ancho de banda suele ser muy grande.

4-. TIPOS DE PANTALLAS

TRC (tubo de rayos catódicos):

Son todavía las menos costosas y pueden tener una gran calidad de imagen. Como no tienen una resolución fija, pueden mostrar fuentes de distintas resoluciones con buena calidad. La frecuencia de un televisor NTSC es de 29.97 Hz, y de 25 Hz en el caso de televisores de la normal PAL. La resolución de los NTSC es de 480 líneas, y los PAL de 575.

Retroproyección:

Los televisores de gran pantalla usan tecnología de proyección. Se usan tres tipos de sistemas de proyección: TRC, LCD y DLP. No dan buenos resultados a la luz del día o en habitaciones muy iluminadas.

Panel Plano (LCD):

Utiliza tecnología de cristal líquido de matriz activa, o plasma. Pueden tener tan solo un par de centímetros de ancho. Algunos modelos también pueden usarse como monitores de ordenador.

Tecnología LED:

Se han convertido en una de las opciones para vídeo en exteriores, desde el advenimiento de diodos electroluminiscentes y sus circuitos. Permiten crear pantallas escalables ultra grandes.

Nacional Televisión System Comitee (un sistema de codificación y transmisión de TV analógica)

Phase Alternation Line (otro sistema de codificación y transmisión de TV analógica)

Historia De Internet

A. Repaso histórico

Tras el fin de la Segunda Guerra Mundial, la así llamada Guerra Fría, entre el bloque comunista liderado por la URSS y el bloque capitalista con Estados Unidos a la cabeza, supuso una carrera ascendente en orden a demostrar la superioridad tecnológica y militar de uno de los dos países. En 1957 la Unión Soviética lanza con éxito al Sputnik, el primer satélite artificial, colocándose en aparente ventaja frente al adversario.

Como respuesta, el entonces presidente de los Estados Unidos, Dwight Eisenhower, ordenó la creación de la ARPA (Advanced Research Projects Agency). El proyecto desarrolló la creación de una red de comunicación entre ordenadores. La particularidad radicaba en la descentralización del sistema, pues estaba compuesto por varios ordenadores distantes geográficamente el uno del otro. Este rasgo le confería el carácter de ‘indestructible’ pues todos tenían el mismo nivel de importancia. Podía llegar a faltar uno sin que quedara impedida la mutua comunicación entre los restantes. Para 1973 se establecieron conexiones entre ordenadores de Estados Unidos, Gran Bretaña y Noruega.

El paso al sector civil sucedió en 1983 cuando el Departamento de Defensa de los Estados Unidos separó el ámbito civil del militar de su red de ordenadores. En 1989 (1) un científico británico del Laboratorio Europeo de Física de Partículas, Tim Berners-Lee, inventó la world wide web (www: la red que engloba al mundo) combinando el hipertexto y el protocolo de comunicaciones de Internet. Este importante acontecimiento propició un método eficaz y ágil al momento de intercambiar datos entre científicos.

Tras visitar el Laboratorio Europeo de Física de Partículas y entrevistarse con Berners-Lee, 12 de diciembre de 1991, Paul Kunz, un físico de la universidad de Stanford, en California, creó el primer sitio web de la historia. El contenido era muy sobrio: apenas tres líneas de texto, un enlace a un correo electrónico y otro a una base de datos científica. Pero Kunz fue más allá al desarrollar un esbozo de navegador y ponerlo al alcance de los que tenían acceso a la Red de modo que otros investigadores pudieran seguir desarrollándolo (2).

Desde 1983 las primeras en beneficiarse de la red de comunicación entre ordenadores fueron las universidades. Para 1995, año en que la difusión de Internet comenzó a mundializarse gracias, en buena medida, a su potencial económico, a la agilidad y bajo costo de la transmisión de informaciones y comunicación humana, grandes cadenas comerciales, de prensa o de servicios; organizaciones religiosas y filantrópicas; sociedades científicas, humanitarias y, más recientemente, personas individuales, han migrado a este gran vehículo de comunicación para darse a conocer (3).

B. Repaso técnico

Conocer la historia es también conocer su lenguaje. Ahora se da por supuesto ese ‘nuevo idioma’ siendo que para muchos permanece aún velada su significación. Ciertamente, todos esos nuevos vocablos nacidos con la revolución de Internet responden a la necesidad concreta de expresar con una forma propia y novedosa la realidad tecnológica que estamos viviendo.

Muchos saben, por ejemplo, que Internet es una conexión de muchos ordenadores entre sí: unos suministran informaciones y otros las solicitan (esos contenidos pueden ser programas –software–, archivos de texto, imágenes, sonidos, vídeos, etc. De forma que esa intercomunicación sea posible, todos los ordenadores deben utilizar el mismo lenguaje. Los ordenadores interactúan gracias a protocolos de comunicación conocidos como TCP (4) e IP (5). Saben eso, pero no más. ¿Qué significa www, e-mail, MUD, weblog, hacker, hoax, crackers, spywares, cookies, P2P, etc. (6)?

www son –como ya se ha dicho– las iniciales de la frase inglesa Wold Wide Web. Su significación práctica, según algunos autores, es triple: en primer lugar todos los recursos a los que se puede tener acceso por medio de un navegador; segundo, todos los documentos hipermedia (7) existentes en todos los servidores web del planeta; y tercero, los protocolos que permiten la comunicación de las páginas digitales en Internet.

E-mail es la abreviación de electronic mail, un medio de comunicación asincrónico (que no se desarrolla en tiempo real) cuya función es similar a la de la carta, aunque con claras ventajas de inmediatez. Ray Tomlinson, en 1971, fue el primero en usar con éxito este medio, utilizando un signo que separaba sin riesgo a confusión el nombre del remitente y el servidor de envío: el de la arroba.

MUD es una sigla que nace de dos palabras: multiusers dungeons o multiusers domains (dominios para múltiples usuarios). Posibilita ‘crear’ un mundo virtual basado en las capacidades imaginativas de los implicados. Es la base de lo que sustenta a sitios como Second Life.

Los Weblog (8) son definidos por Montse Doval Avendaño como sitios web “de publicación periódica, escrito por uno o varios autores, en el que se hacen anotaciones por orden cronológico, de más a menos recientes y en las que cada anotación genera una dirección permanente individual” (9). Antonio Spadaro recuerda que, “desde su inicio [el de los blogs, ndr], en 1997, esta forma de expresión ha revestido de hecho una doble función: poner en línea historias personales, reflexiones del autor, pensamientos en forma de almanaque, por los cuales la frecuencia cotidiana de la actualización reproduce los ritmos de la vida ordinaria” y “realizar una forma de comunicación difundida desde la base, sin filtros de carácter económico o de espacio, que dé información y sobre todo haga opinión de género “alternativo” respecto a aquella de los medios oficiales” (10). Al conjunto de weblogs que pululan en Internet se le llama blogosfera.

Los wiki son sitios web (o colecciones de documentos hipertextuales) que permiten a los usuarios agregar contenidos, como en un foro, y también modificar los contenidos existentes.

Y como la realidad humana de la salud también ha migrado al lenguaje digital, tenemos una serie de bichos capaces de hacer decaer el bienestar de los ordenadores. Los virus, por ejemplo, son programas que se introducen subrepticiamente con la intención de dañar parte o la totalidad del ordenador. Los troyanos son menos dañinos aunque crean agujeros por los que los intrusos pueden acceder a nuestros datos y realizar hurtos o cambios. El hoax (trampas o bromas) son mensajes con falsas alarmas con la intención de hacer perder el tiempo de los receptores o fomentar psicosis vanas.

Otras palabras conocidas son hackers (expertos en informática que emplean sus conocimientos para actividades no delictivas), cracker (conoce de informática pero delinque (11), spywares (programas espías que recaban información del sistema donde están instalados para luego enviarla por la red a otros), cookies (archivos que se introducen en el ordenador cuando visitamos algunos portales; son capaces de registrarnos y esbozar un perfil de usuario aunque son fáciles de retirar), firewall o cortafuegos (programa que restringe las conexiones TCP e IP) y la red P2P (peer to peer o igual a igual; a través de ellos se pone a disposición de otros el disco duro de un ordenador, por ejemplo).

II. El presente de Internet

Basta teclear unos cuantos números y dar un clic –¡ah!, y una buena tarjeta de crédito– para que el manjar más suculento llegue hasta las puertas de nuestros hogares sin haber tenido siquiera que alzar la bocina del teléfono. Ya no se tiene que ir hasta un banco, al Ministerio de Hacienda o Economía para realizar un depósito, retirar dinero, pagar impuestos o declarar la renta. Ahora es posible trabajar desde el hogar y estudiar ‘virtualmente’ desde la enseñanza elemental hasta una carrera universitaria. Recoger el periódico impreso que antes dejaba el distribuidor en el buzón de correos es una inversión innecesaria, pues prácticamente todos los diarios más importantes ofrecen los mismo contenidos en sus portales (algunos incluso pugnan por ofrecer las actualizaciones de información minuto a minuto). ¿Esperar el disco o la película que se estrenará el mes entrante? Decenas de sitios “ofrecen” el producto anticipadamente. Las bibliotecas, museos y sitios de interés más recónditos están más cerca que nunca a través de Internet.

Sí, ésta es la realidad; Internet está presente en la vida de millones de personas, de una buena parte de la población mundial, para bien o para mal. Pero, ¿cuáles han sido esos ‘paradigmas’ que han posibilitado el protagonismo actual del tema de este trabajo?

A. La revolución de las comunicaciones

Hemos de recordar que, en una definición amplia, Internet es, ante todo, un medio de comunicación. Su aparición y rápido desarrollo ha supuesto, ante todo, una revolución en las comunicaciones. De esta manera podemos captar mejor el motivo por el cual los medios tradicionales de comunicación han ido pasando a ensanchar el impacto mediático de Internet en el mundo al grado de condicionar la existencia tradicional de muchos de ellos (pienso, por ejemplo, en la prensa escrita a la que nos hemos referido en la última parte del primer capítulo (12).

Hemos repasado el origen y primeros pasos de Internet. Su precipitación se ha desencadenado en los últimos 12 años, y con mayor auge, del año 2000 para acá. Buena parte del éxito de Internet se debe a que es un medio polifacético: ha asumido las características que los medios tradicionales de comunicación y entretenimiento ofrecían por separado fusionándolos en uno solo. De esta manera, ahora es más fácil encontrarnos con que un consumidor tiene un ordenador como prioridad de compra por encima de una televisión, aparato reproductor de radio, audio o cd.

El correo electrónico.

El primer paradigma de esta revolución ha sido el e-mail. Al presente, en países de primer mundo, ha llegado a sustituir hasta en un 87% al correo tradicional. Sus características propias (inmediatez, eficacia, bajo o nulo costo, diversidad de recursos para enriquecerse, posibilidad de adjuntar otros archivos y facilidad a acceder a él desde cualquier ordenador conectado a la red en cualquier lugar del mundo) le ha conferido la supremacía.

Prensa digital

Uno de los primeros recursos que Internet comenzó a ofrecer fue la información de la actualidad política, social, religiosa, económica y deportiva. Japón fue el primer país donde un diario, el Asahi Shimbum (El Sol de la Mañana), resolvió los problemas de la distancia con la creación del primer portal de un diario. Ahora la mayor parte de los periódicos y revistas que circulan de forma impresa cuentan también con su versión digital (14). Pero no todo ha acabado con la incursión de la prensa en el ámbito digital. Los blogs han supuesto todo un caso: han conferido un poder al ciudadano haciendo ver que la emisión de información ya no es patrimonio exclusivo de los grandes y renombrados medios de comunicación (15).

Descargas (música y vídeos)

Desde que Internet incorporó la posibilidad de subir y bajar música gratuitamente, las casas discográficas se vieron obligadas a implementar mecanismos que, por una parte, les ayudaran a velar por el cuidado de los derechos de autor y aseguraran las entradas de dinero por ese concepto, y, por otra, sabiendo que no se podían quedar atrás, dado que Internet les estaba obligando a adaptarse a las nuevas tecnologías, la mayoría de las grandes cadenas han ido, poco a poco, poniendo a disposición de los usuarios, bajo condiciones legales y económicas de pago diversas, su discografía o filmografía e incluso el material de estreno de más de alguna figura de la canción y del cine.
No podríamos dejar de mencionar a quien, en buena medida, propició la revolución en este campo: Napster.com (16).

Televisión, radio y telefonía por Internet

Aunque es más reciente su aparición en Internet, la televisión, la radio y la telefonía por Internet ya son una realidad en crecimiento constante. Es destacable, por su impacto, el trabajo de Skype.com, un software para hacer llamadas gratuitas por Internet fundado en 2003 por Niklas Zennström. Con sede en Londres, Skype.com cuenta con 34 millones de usuarios en todo el mundo y 100 millones de descargas de su aplicación.

YouTube es, por mucho, el “canal” más utilizado del mundo (17). A efectos prácticos estamos ante una forma de televisión versión Internet y asincrónica. A este portal se pueden subir y descargar videos de las más variadas clasificaciones y ha venido a constituir, sobre todo en la sociedad estadounidense –si bien es visitado por cibernautas de todo el mundo–, un factor de influencia incluso de dimensiones políticas. No por nada ha promovido y auspiciado los debates de los pre-candidatos demócratas y republicanos a la presidencia de la Unión Americana, en 2008.

Tiendas virtuales

Las tiendas virtuales –las hay de todo tipo– son otro paradigma de Internet. Las hay que, conectadas a un dispositivo del refrigerador del cliente y bajo previo contrato, se encargan de hacer las compras.

Museos, bibliotecas y enciclopedias

La cultura también ha encontrado su espacio en Internet. Si bien nunca sustituirá la visita física personal, ahora los museos ofrecen, en resoluciones de altísima calidad, las obras que conservan. Pero no es todo. Los grandes museos (el de Nueva York, Londres, el Vaticano, el Ermitage, el Prado o Louvre) ofrecen visitas virtuales guiadas de gran calidad. De las bibliotecas ni hablar. Ahora se puede acceder a libros de bibliotecas antiquísimas de gran prestigio a distancias enormes.

Ciertamente, en el campo de la cultura, el gran paradigma lo ha constituido Wikipedia (18). Se trata, como escribe Antonio Spadaro, de “una enciclopedia en línea, multilingüe, de contenido abierto […]. Todos los textos pueden ser libremente modificados, distribuidos” […] y “tiene consistencia diversa de acuerdo a las diversas lenguas en las cuales está disponible y se incrementa constantemente” (19). Si bien a Wikipedia, que ocupa el puesto 34 entre las páginas más visitadas de Internet en todo el mundo (20), se le han hecho muchas críticas que veremos rápidamente más adelante, no se puede negar que ha fomentado el interés, la participación y el debate cultura en diferentes disciplinas. Como recuerda Rodrigo Ramírez, “wikipedia tiene sus límites como toda iniciativa humana. Quizás para algunos sea un nuevo intento de levantar una Babel de soberbia intelectual. Pero es sin duda un areópago contemporáneo; y si nuestra fe o nuestra vida cristiana no tiene más cabida ahí ahora, es sin duda por desidia de los creyentes y no por falta de oportunidad” (21).

Libros digitales

Hace más de diez años Sven Birkets aseguraba en su “Elegía a Gutemberg” que la literatura impresa estaba en declive. Hace poco tiempo Amazon.com, el portal más grande de venta de libros con servicio a domicilio en todo el mundo, lanzó al mercado Kindle (22), un aparato electrónico que permite comprar (23) y leer miles de títulos (24). Al respecto es recomendable el artículo de crítica que Steven Levy escribió en Newsweek de la última semana de noviembre de 2007 (25).

Evoucion del Ordenador

La primera máquina de calcular mecánica,

un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de maderaperforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetasperforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistemaque hacía pasar tarjetas perforadas sobre contactos eléctricos.
El mundo de la alta tecnologíanunca hubiera existido de no ser por el desarrollo del ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y tamaños, para el almacenamientoy manipulación de datos. Los equipos informáticos han abierto una nueva era en la fabricación gracias a las técnicas de automatización, y han permitido mejorar los sistemas modernos de comunicación. Son herramientas esenciales prácticamente en todos los campos de investigacióny en tecnología aplicada.

2. La máquina analítica

También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadoradigital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos.
Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglésLord Byron, como a los verdaderos inventores de la computadora digital moderna.
La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno.
Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresorapara hacer permanente el registro.

Considerada por muchos como predecesora directa de los modernos dispositivos de cálculo, la máquina diferencial era capaz de calcular tablas matemáticas. Este corte transversal muestrauna pequeña parte de la ingeniosa máquina diseñada por el matemático británico Charles Babbage en la década de 1820. La máquina analítica, ideada también por Babbage, habría sido una auténtica computadora programable si hubiera contado con la financiación adecuada. Las circunstancias quisieron que ninguna de las máquinas pudieran construirse durante su vida, aunque esta posibilidad estaba dentro de la capacidad tecnológica de la época. En 1991, un equipo del Museo de las Ciencias de Londres consiguió construir una máquina diferencial Nº 2 totalmente operativa, siguiendo los dibujos y especificaciones de Babbage.
3. Los primeros ordenadores

Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerrasmundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.
4. Ordenadores electrónicos

Durante la II Guerra Mundial(1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus.Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1945. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.

La primera computadora electrónica comercial, la UNIVAC I, fue también la primera capaz de procesar información numérica y textual. Diseñada por J. Presper Eckeret y John Mauchly, cuya empresase integró posteriormente en Remington Rand, la máquina marcó el inicio de la era informática. En la ilustración vemos una UNIVAC. La computadora central está al fondo, y en primer plano puede verse al panel de control de supervisión. Remington Rand entregó su primera UNIVAC a la Oficinadel Censo de Estados Unidos en 1951.
5. El eniac

El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidadde varios cientos de multiplicaciones por minuto, pero su programaestaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistoresutilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadorasde segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.

6. Circuitos integrados

A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.

Los circuitos integrados han hecho posible la fabricación del microordenador o microcomputadora. Sin ellos, los circuitos individuales y sus componentes ocuparían demasiado espacio como para poder conseguir un diseñocompacto. También llamado chip, un circuito integrado típico consta de varios elementos como reóstatos, condensadoresy transistores integrados en una única pieza de silicio. En los más pequeños, los elementos del circuito pueden tener un tamaño de apenas unos centenares de átomos, lo que ha permitido crear sofisticadas computadoras del tamaño de un cuaderno. Una placa de circuitos de una computadora típica incluye numerosos circuitos integrados interconectados entre sí.
7. Evolución cronológica de la computadora

La necesidad del hombre de encontrar métodos rápidos y efectivos para resolver sus cálculos y su gran inventiva lo llevaron a través de los siglos al desarrollo de lo que hoy conocemos como la computadora. Desde el ábacohasta las computadoras personales éstas han tenido una gran influencia en diferentes aspectos de nuestro diario vivir, mejorando nuestra calidad de vida y abriendo puertas que antes eran desconocidas para la humanidad.
500 AC: Ábaco
El primer calculador de tipo mecánico fue ideado en Babilonia alrededor de 500 A.C. Este dispositivo mecánico llamado ábaco consistía de un sistema de barras y poleas con lo cual se podían efectuar diferentes tipos de cálculos aritméticos.
1622: Oughtred presenta la regla de cálculo
Hacia 1622, el matemático inglés William Oughtred utilizó los recién inventados logaritmos para fabricar un dispositivo que simplificaba la multiplicación y la división. Consistía en dos reglas graduadas unidas que se deslizaban una sobre otra.
1642: Primera máquina de sumar
El matemático y filósofo francés Blaise Pascal tenía diecinueve años cuando construyó la primera máquina sumadora del mundo en 1642. Utilizaba un engranaje de ruedas dentadas como contadores. El dispositivo llevaba 1 automáticamente al llegar a las decenas y también podía emplearse para restar.
1834: Primera computadora digital programable
En 1834 el científico e inventor inglés Charles Babbage realizó los esquemas de un dispositivo el cual llamó máquina analítica lo que en realidad era una computadora de propósitos generales. Esta máquina era programada por una serie de tarjetas perforadas que contenían datos o instrucciones las cuales pasaban a través de un dispositivo de lectura, eran almacenados en una memoria y los resultados eran reproducidos por unos moldes. Esta máquina superaba por mucho la tecnología de su tiempo y nunca se terminó.
1850: Primera sumadora de teclado
El tecladoapareció en una máquina inventada en Estados Unidos en 1850. Podían sumarse una secuencia de dígitos pulsando unas teclas sucesivas. Cada tecla alzaba un eje vertical a cierta altura y la suma quedaba indicada por la altura total.

8. Generaciones Del Computador
9. A.C. (Antes De Ordenadores)
• Dotación física

o Mecánico
• Software lógica

o Tarjetas o cinta de papel perforadas
o Ada Lovelace - primer programador (c. 1840)
o Máquina de Turing y Church-Turing Thesis (1937)
• Máquinas Especiales

o Ábaco
o Pascaline - Primera Máquina calculadora Automática (1642)
o Telar De Telar jacquar (1805)
o Motores De Babbage
o
 Motor De Diferencia (1822)
 Motor Analítico (1832)
o Hollerith
o
 Máquina De Tabulación (Censo 1890 De los E.E.U.U.)
 La máquina de tabulación de las formas Co. (1896) - se convierte la IBM en 1924
o Máquina sumadora De Burroughs (1888)
10. Primera generación: C. 1940 – 1955
• Dotación física

o Tubos de vacío
o Tambores magnéticos
o Cinta magnética (cerca del extremo de la generación)
• Software lógica

o Programas en terminología de la informática
o Programas en lenguaje ensamblador (cerca del extremo de la generación)
o 1946 - von Neumann publica el documento sobre el ordenador salvado del programa
o 1950 - Prueba de Turing publicada
• Máquinas Especiales

o 1940 - ABC (1r ordenador electrónico)
o 1940 - Robinson (1r ordenador, código operacionales de Enigma de las grietas)
o 1946 - Calculadora numérica de ENIAC (1r completamente electrónico, de uso general)
o 1950 - UNIVAC I (1r ordenador comercialmente acertado)
11. Segunda generación: C. 1955 – 1964
• Dotación física

o Transistores
o
 1947 - Convertido
 1955 - Calculadora Del Transistor De IBM's
o Minicomputadoras
o Discos magnéticos
o Tarjetas de circuito impresas
• Software lógica

o Lenguajes de alto nivel
o
 1956 - FORTRAN
 1959 - COBOL
• Máquinas Especiales

o 1963 -- PDP 8 (1ra minicomputadora)
12. Tercera generación: C. 1964 – 1971
• Dotación física

o Circuitos integrados (c. desarrollada 1958)
o Familias de los ordenadores (1964 - IBM 360)
o 1970 - Diskette
• Software lógica

o Los programas entraron directamente en los ordenadores
o Lenguajes de un nivel más alto (1965 - BASIC)
o Sistemas operativos
o Timesharing
• Máquinas Especiales

o 1964 -- Serie del sistema 360 de la IBM (1ra familia de ordenadores)
13. Cuarta generación: C. 1971 – PRESENTE
• Dotación física

o 1971 - Viruta del microprocesador introducida en los E.E.U.U. por Intel
o Microordenadores (Ordenadores Personales)
o Integración De la Escala Grande (LSI)
o Integración De la Escala Muy Grande (Vlsi)
• Software lógica

o Programación estructurada
o Conjuntos de aplicación
o Sistemas del windowing (interfaces utilizador gráficos -- GUIs)
o Programas conviviales
• Máquinas Especiales

o 1971 - (1ra calculadora de bolsillo)
o 1975 -- Altaír 8800 (1ra PC)
o 1977 -- Manzana I (hágala usted mismo kit)
o 1978 -- Manzana II (premontada)
o 1981 -- PC DE LA IBM
o 1984 -- Impermeable
14. Tendencias generales
• Dotación física

o Más pequeño
o Más rápidamente
o Más barato
o Más disponible
• Software lógica

o Más grande (más exige en la dotación física: CPU, memoria, espacio de disco, etc.)
o Más fácil utilizar
o Mejore El Diseño
o Más barato
o Más disponible

15. Ordenadores analógicos

El ordenador analógico es un dispositivo electrónico o hidráulico diseñado para manipular la entrada de datos en términos de, por ejemplo, niveles de tensión o presiones hidráulicas, en lugar de hacerlo como datos numéricos. El dispositivo de cálculo analógico más sencillo es la regla de cálculo, que utiliza longitudes de escalas especialmente calibradas para facilitar la multiplicación, la división y otras funciones. En el típico ordenador analógico electrónico, las entradas se convierten en tensiones que pueden sumarse o multiplicarse empleando elementos de circuito de diseño especial. Las respuestas se generan continuamente para su visualización o para su conversión en otra forma deseada.
16. Ordenadores digitales
Todo lo que hace un ordenador digital se basa en una operación: la capacidad de determinar si un conmutador, o ‘puerta’, está abierto o cerrado. Es decir, el ordenador puede reconocer sólo dos estados en cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de números, 0 o 1. Sin embargo, es la velocidad con la cual el ordenador realiza este acto tan sencillo lo que lo convierte en una maravilla de la tecnología moderna. Las velocidades del ordenador se miden en megahercios, o millones de ciclos por segundo. Un ordenador con una velocidad de reloj de 100 MHz, velocidad bastante representativa de un microordenador o microcomputadora, es capaz de ejecutar 100 millones de operaciones discretas por segundo. Las microcomputadoras de las compañías pueden ejecutar entre 150 y 200 millones de operaciones por segundo, mientras que las supercomputadoras utilizadas en aplicaciones de investigación y de defensa alcanzan velocidades de miles de millones de ciclos por segundo.
La velocidad y la potencia de cálculo de los ordenadores digitales se incrementan aún más por la cantidad de datos manipulados durante cada ciclo. Si un ordenador verifica sólo un conmutador cada vez, dicho conmutador puede representar solamente dos comandos o números. Así, ON simbolizaría una operación o un número, mientras que OFF simbolizará otra u otro. Sin embargo, al verificar gruposde conmutadores enlazados como una sola unidad, el ordenador aumenta el número de operaciones que puede reconocer en cada ciclo. Por ejemplo, un ordenador que verifica dos conmutadores cada vez, puede representar cuatro números (del 0 al 3), o bien ejecutar en cada ciclo una de las cuatro operaciones, una para cada uno de los siguientes modelos de conmutador: OFF-OFF (0), OFF-ON (1), ON-OFF (2) u ON-ON (3). En general, los ordenadores de la década de 1970 eran capaces de verificar 8 conmutadores simultáneamente; es decir, podían verificar ocho dígitos binarios, de ahí el término bit de datos en cada ciclo.
Un grupo de ocho bits se denomina byte y cada uno contiene 256 configuraciones posibles de ON y OFF (o 1 y 0). Cada configuración equivale a una instrucción, a una parte de una instrucción o a un determinado tipo de dato; estos últimos pueden ser un número, un caráctero un símbolo gráfico. Por ejemplo, la configuración 11010010 puede representar datos binarios, en este caso el número decimal 210 , o bien estar indicando al ordenador que compare los datos almacenados en estos conmutadores con los datos almacenados en determinada ubicación del chip de memoria. El desarrollo de procesadorescapaces de manejar simultáneamente 16, 32 y 64 bits de datos ha permitido incrementar la velocidad de los ordenadores. La colección completa de configuraciones reconocibles, es decir, la lista total de operaciones que una computadora es capaz de procesar, se denomina conjunto, o repertorio, de instrucciones. Ambos factores, el número de bits simultáneos y el tamaño de los conjuntos de instrucciones, continúa incrementándose a medida que avanza el desarrollo de los ordenadores digitales modernos.

17. Evolución futura

Una tendencia constante en el desarrollo de los ordenadores es la microminiaturización, iniciativa que tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño. Además, los investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad, un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas muy bajas.
Las redes informáticas se han vuelto cada vez más importantes en el desarrollo de la tecnología de computadoras. Las redes son grupos de computadoras interconectados mediante sistemas de comunicación. La redpública Internetes un ejemplo de red informática planetaria. Las redes permiten que las computadoras conectadas intercambien rápidamente información y, en algunos casos, compartan una carga de trabajo, con lo que muchas computadoras pueden cooperar en la realización de una tarea. Se están desarrollando nuevas tecnologías de equipo físico y soporte lógico que acelerarán los dos procesos mencionados.
Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear computadoras de quinta generación, capaces de resolver problemas complejos en formas que pudieran llegar a considerarse creativas. Una vía que se está explorando activamente es el ordenador de procesoparalelo, que emplea muchos chips para realizar varias tareas diferentes al mismo tiempo. El proceso paralelo podría llegar a reproducir hasta cierto punto las complejas funciones de realimentación, aproximación y evaluación que caracterizan al pensamiento humano. Otra forma de proceso paralelo que se está investigando es el uso de computadoras moleculares. En estas computadoras, los símbolos lógicos se expresan por unidades químicas de ADNen vez de por el flujo de electrones habitual en las computadoras corrientes.

Sistema de numeracion



Cuando los hombres empezaron a contar usaron los dedos, guigarros, marcas en bastones, nudos en una cuerda y algunas otras formas para ir pasando de un número al siguiente. A medida que la cantidad crece se hace necesario un sistema de representación más práctico.
En diferentes partes del mundo y en distintas épocas se llegó a la misma solución, cuando se alcanza un determinado número se hace una marca distinta que los representa a todos ellos. Este número es la base. Se sigue añadiendo unidades hasta que se vuelve a alcanzar por segunda vez el número anterior y se añade otra marca de la segunda clase . Cuando se alcanza un número determinado (que puede ser diferente del anterior constituyendo la base auxiliar) de estas unidades de segundo orden, las decenas en caso de base 10, se añade una de tercer orden y así sucesivamente.

La base que más se ha utilizado a lo largo de la Historia es 10 según todas las apariencias por ser ese el número de dedos con los que contamos. Hay alguna excepción notable como son las numeración babilónica que usaba 10 y 60 como bases y la numeración maya que usaba 20 y 5 aunque con alguna irregularidad.
Desde hace 5000 años la gran mayoría de las civilizaciones han contado en unidades, decenas, centenas, millares etc. es decir de la misma forma que seguimos haciéndolo hoy. Sin embargo la forma de escribir los números ha sido muy diversa y muchos pueblos han visto impedido su avance científico por no disponer de un sistema eficaz que permitiese el cálculo.
Casi todos los sistemas utilizados representan con exactitud los números enteros, aunque en algunos pueden confundirse unos números con otros, pero muchos de ellos no son capaces de representar grandes cantidades, y otros requieren tal cantidad de simbolos que los hace poco prácticos.

Pero sobre todo no permiten en general efectuar operaciones tan sencillas como la multiplicación, requiriendo procedimientos muy complicados que sólo estaban al alcance de unos pocos iniciados. De hecho cuando se empezó a utilizar en Europa el sistema de numeración actual, los abaquistas, los profesionales del cálculo se opusieron con las más peregrinas razones, entre ellas la de que siendo el cálculo algo complicado en sí mismo, tendría que ser un metodo diabólico aquel que permitiese efectuar las operaciones de forma tan sencilla.
El sistema actual fue inventado por los indios y transmitido a Europa por los árabes;. Del origen indio del sistema hay pruebas documentales más que suficientes, entre ellas la opinión de Leonardo de Pisa (Fibonacci) que fue uno de los indroductores del nuevo sistema en la Europa de 1200. El gran mérito fue la introducción del concepto y símbolo del cero, lo que permite un sistema en el que sólo diez simbolos puedan representar cualquier número por grande que sea y simplificar la forma de efectuar las operaciones.


Sistemas de Numeracion Aditivos Para ver cómo es la forma de representación aditiva consideremos el sistema geroglífico egipcio. Por cada unidad se escribe un trazo vertical, por cada decena un símbolo en forma de arco y por cada centena, millar, decena y centena de millar y millón un geroglífico específico. Así para escribir 754 usaban 7 geroglíficos de centenas 5 de decenas y 4 trazos. De alguna forma todas las unidades están fisicamente presentes.
Los sistemas aditivos son aquellos que acumulan los simbolos de todas las unidades, decenas... como sean necesarios hasta completar el número. Una de sus características es por tanto que se pueden poner los símbolos en cualquier orden, aunque en general se ha preferido una determinada disposición.
Han sido de este tipo las numeraciones egipcia, sumeria (de base 60), hitita, cretense, azteca (de base 20), romana y las alfabéticas de los griegos, armenios, judios y árabes.


El Sistema de Numeración Egipcio
Desde el tercer milenio A.C. los egipcios usaron un sistema deescribir los números en base diez utilizando los geroglíficos de la figura para representar los distintos ordenes de unidades.

Se usaban tantos de cada uno cómo fuera necesario y se podian escribir indistintamente de izquierda a derecha, al revés o de arriba abajo, cambiando la orientación de las figuras según el caso. Al ser indiferente el orden se escribían a veces según criterios estéticos, y solían ir acompañados de los geroglíficos correspondientes al tipo de objeto (animales, prisioneros, vasijas etc.) cuyo número indicaban. En la figura aparece el 276 tal y como figura en una estela en Karnak.
Estos signos fueron utilizados hasta la incorporación de Egipto al imperio romano. Pero su uso quedó reservado a las inscripciones monumentales, en el uso diario fue sustituido por la escritura hierática y demótica, formas más simples que permitian mayor rapidez y comodidad a los escribas
En estos sistemas de escritura los grupos de signos adquirieron una forma propia, y asi se introdujeron símbolos particulares para 20, 30....90....200, 300.....900, 2000, 3000...... con lo que disminuye el número de signos necesarios para escribir una cifra.


El Sistema de Numeración Griego

El primer sitema de numeración griego se desarrolló hacia el 600 A.C. Era un sistema de base decimal que usaba los símbolos de la figura siguiente para representar esas cantidades. Se utilizaban tantas de ellas como fuera necesario según el principio de las numeraciones aditivas.
Para representar la unidad y los números hasta el 4 se usaban trazos verticales. Para el 5, 10 y 100 las letras correspondientes a la inicial de la palabra cinco (pente), diez (deka) y mil (khiloi). Por este motivo se llama a este sistema acrofónico.
Los símbolos de 50, 500 y 5000 se obtienen añadiendo el signo de 10, 100 y 1000 al de 5, usando un principio multiplicativo. Progresivamente este sistema ático fue reemplazado por el jónico, que empleaba las 24 letras del alfabeto griego junto con algunos otros símbolos según la tabla siguiente De esta forma los números parecen palabras, ya que están compuestos por letras, y a su vez las palabras tienen un valor numérico, basta sumar las cifras que corresponden a las letras que las componen. Esta circunstancia hizo aparecer una nueva suerte de disciplina mágica que estudiaba la relación entre los números y las palabras. En algunas sociedades como la judía y la árabe, que utilizaban un sistema similar, el estudio de esta relación ha tenido una gran importancia y ha constituido una disciplina aparte: la kábala, que persigue fines místicos y adivinatorios.


Sistemas de Numeracion Híbridos

En estos sistemas se combina el principio aditivo con el multiplicativo. Si para representar 500 los sistemas aditivos recurren a cinco representaciones de 100, los híbridos utilizan la combinación del 5 y el 100. Pero siguen acumulando estas combinaciones de signos para los números más complejos. Por lo tanto sigue siendo innecesario un símbolo para el 0. Para representar el 703 se usa la combinacion del 7 y el 100 seguida del 3.
El orden en la escritura de las cifras es ahora fundamental para evitar confusiones, se dan así los pasos para llegar al sistema posicional, ya que si los signos del 10, 100 etc se repiten siempre en los mismos lugares, pronto alguien piensa en suprimirlos, dándolos por supuestos y se escriben sólo las cifras correspondientes a las decenas, centenas etc. .Pero para ello es necesario un cero, algo que indique que algún orden de magnitud está vacío y no se confundan el 307 con 370, 3070 ...
Además del chino clásico han sido sistemas de este tipo el asirio, arameo, etíope y algunos del subcontinente indio cómo el tamil, el malayalam y el cingalés.


El Sistema de Numeración Chino
La forma clásica de escritura de los números en China se empezó a usar desde el 1500 A.C. aproximadamente. Es un sistema decimal estricto que usa las unidades y los distintas potencias de 10. Utiliza los ideogramas de la figura
y usa la combinación de los números hasta el diez con la decena, centena, millar y decena de millar para según el principio multiplicativo representar 50, 700 ó 3000. El orden de escritura se hace fundamental,ya que 5 10 7 igual podría representar 57 que 75.

Tradicionalmente se ha escrito de arriba abajo aunque también se hace de izquierda a derecha como en el ejemplo de la figura. No es necesario un símbolo para el cero siempre y cuando se pongan todos los ideogramas, pero aún así a veces se
suprimían los correspondientes a las potencias de 10.
Aparte de esta forma que podríamos llamar canónica se usaron otras. Para los documento importantes se usaba una grafía más complicada con objeto de evitar falsificaciones y errores. En los sellos se escribía de forma más estilizada y lineal y aún se usaban hasta dos grafías diferentes en usos domésticos y comerciales, aparte de las variantes regionales. Los eruditos chinos por su parte desarrollaron un sistema posicional muy parecido al actual que desde que incorporó el cero por influencia india en s. VIII en nada se diferencia de este.

Sistemas de Numeración Posicionales

Mucho más efectivos que los sitemas anteriores son los posicionales. En ellos la posición de una cifra nos dice si son decenas, centenas ... o en general la potencia de la base correspondiente.
Sólo tres culturas además de la india lograron desarrollar un sistema de este tipo. Babilonios, chinos y mayas en distintas épocas llegaron al mismo principio. La ausencia del cero impidió a los chinos un desarrollo completo hasta la intraducción del mismo. Los sistemas babilónico y maya no eran prácticos para operar porque no disponían de simbolos particulares para los dígitos, usando para representarlos una acumulación del signo de la unidad y la decena. El hecho que sus bases fuese 60 y 20 respectivamente no hubiese representado en principio nigún obstáculo. Los mayas por su parte cometían una irregularidad a partir de las unidades de tercer orden, ya que detrás de las veintenas no usaban 20x20=400 sino 20x18=360 para adecuar los números al calendario, una de sus mayores preocupaciones culturales.
Fueron los indios antes del siglo VII los que idearon el sistema tal y como hoy lo conocemos, sin mas que un cambio en la forma en la que escribimos los nueve dígitos y el cero. Aunque con frecuencia nos referimos a nuestro sistema de numeración cómo árabe, las pruebas arqueológicas y documentales demuestran el uso del cero tanto en posiciones intermedias como finales en la India desde el sss. Los árabes transmitieron esta forma de representar los números y sobre todo el cáculo asociado a ellas, aunque tardaron siglos en ser usadas y aceptadas. Una vez más se produjo una gran resistencia a algo por el mero hecho de ser nuevo o ajeno, aunque sus ventajas eran evidentes. Sin esta forma eficaz de numerar y efectuar cálculos dificilmente la ciencia hubiese podido avanzar.


El Sistema de Numeración Babilónico

Entre la muchas civilizaciones que florecieron en la antigua Mesopotamia se desarrollaron distintos sistemas de numeración. En el ssss A.C. se inventó un sistema de base 10, aditivo hasta el 60 y posicional para números superiores. Para la unidad se usaba la marca vertical que se hacía con el punzón en forma de cuña. Se ponían tantos como fuera preciso hasta llegar a 10, que tenía su propio signo.

De este se usaban los que fuera necesario completando con las unidades hasta llegar a 60.
A partir de ahí se usaba un sistema posicional en el que los grupos de signos iban representando sucesivamente el número de unidades, 60, 60x60, 60x60x60 y asi sucesivamente como en los ejemplos que se acompañan.

El Sistema de Numeración Maya
Los mayas idearon un sistema de base 20 con el 5 cómo base auxiliar. La unidad se representaba por un punto. Dos, tres, y cuatro puntos servían para 2, 3 y 4. El 5 era una raya horizontal, a la que seañadían los puntos necesarios para representar 6, 7, 8 y 9. Para el 10 se usaban dos rayas, y de la misma forma se continúa hasta el 20, con cuatro rayas.
Hasta aquí parece ser un sistema de base 5 aditivo, pero en realidad, considerados cada uno un solo signo, estos símbolos constituyen las cífras de un sistema de base 20, en el que hay que multiplicar el valor de cada cifra por 1, 20, 20x20, 20x20x20 ... según el lugar que ocupe, y sumar el resultado. Es por tanto un sistema posicional que se escribe a arriba abajo, empezando por el orden de magnitud mayor.
Al tener cada cifra un valor relativo según el lugar que ocupa, la presencia de un signo para el cero, con el que indicar la ausencia de unidades de algún orden, se hace imprescindible y los mayas lo usaron, aunque no parece haberles interesado el concepto de cantidad nula. Cómo los babilonios lo usaron simplemente para indicar la ausencia de otro número.
Pero los científicos mayas eran a la vez sacerdotes ocupados en la observación astronómica y para expresar los número correspondientes a las fechas usaron unas unidades de tercer orden irregulares para la base 20. Así la cifra que ocupaba el tercer lugar desde abajo se multiplicaba por 20x18=360 para completar una cifra muy próxima a la duración de un año.
El año lo consideraban dividido en 18 uinal que constaba cada uno de 20 días. Se añadían algunos festivos (uayeb) y de esta forma se conseguía que durara justo lo que una de las unidades de tercer orden del sistema numérico. Además de éste calendario solar, usaron otro de carater religioso en el que el año se divide en 20 ciclos de 13 días.
Al romperse la unidad del sistema éste se hace poco práctico para el cálculo y aunque los conocimiento astronómicos y de otro tipo fueron notables los mayas no desarrollaron una matemática más allá del calendario