viernes

Historia y actualidad Unix, el grande entre los grandes



Sistemas operativos
Historia y actualidad
Unix, el grande entre los grandes
Desarrollado en los Laboratorios Bell de AT&T a finales de los 60, este sistema
operativo es el más popular dentro de los sistema de gama alta.
Unix es un sistema operativo multiusuario y multitarea ampliamente utilizado
para controlar programas en estaciones de trabajo y especialmente en
servidores. Un sinnúmero de aplicaciones comerciales se ejecuta en servidores
Unix, y muchos sitios Web funcionan bajo Unix. Hay diferentes versiones del
sistema operativo y, excepto en el mundo de los ordenadores personales,
donde el que domina es Windows, casi todos los vendedores de hardware lo
ofrecen como sistema operativo primario o secundario. Sun ha sido uno de los
instrumentos más importantes en la comercialización de Unix con su sistema
operativo Solaris, antiguamente llamado SunOS. HP, IBM y SCO también han
sido grandes vendedores y promotores de Unix.
Unix está escrito en C y ambos fueron desarrollados por AT&T y distribuidos
libremente a instituciones gubernamentales e instituciones académicas, lo que
supuso que fuera incluido en una mayor variedad de familias de máquinas que
cualquier otros sistema operativo. Con estos inicios, Unix llegó a ser un
sinónimo de sistema abierto.
Los orígenes del sistema Unix se remontan al desarrollo de un proyecto iniciado
en 1968. Este proyecto fue realizado por General Electric, AT&T Bell y el MIT
(Instituto Tecnológico de Massacusets), llevaron a cabo el desarrollo de un
sistema operativo con nuevos conceptos como la multitarea, la gestión de
archivos o la interacción con el usuario. El resultado de estas investigaciones se
bautizó como Multics.
El proyecto resultó ser demasiado ambicioso, por lo que no llegó a buen fin y
terminó abandonándose.
Posteriormente la idea de este proyecto se vuelve a retomar y conduce al gran
desarrollo en 1969 del sistema operativo Unix. Entre los investigadores
destacaban Ken Thompson y Dennis Ritchie. En principio, este sistema
operativo recibió el nombre de Unics, aunque un año después pasa a llamarse
Unix, como se conoce hoy en día.
Inicialmente Unix fue considerado como un proyecto de investigación, hasta el
punto de distribuirse de forma gratuita en algunas universidades, pero después
la demanda del producto hizo que los laboratorios Bell iniciaran su distribución
oficial.
Para 1974 Unix se había convertido en un eficaz sistema operativo que se
ejecutaba principalmente en máquinas PDP, llegando a ser muy popular en
entornos académicos y científicos.
En la variedad está el gusto
En la universidad de California de Berkeley se llevaron a cabo numerosas
mejoras del sistema y las versiones de Unix procedentes de esta universidad
llegaron a ser ampliamente utilizadas. Para finales de los años 70, las versiones
comerciales de Unix, tales como IS/1 y XENIX ya estaban disponibles.
En 1977, se inició la venta de Unix en el mercado comercial. Durante este
tiempo, Unix también adquirió más potencia, incluyendo soporte para
procesadores con coma flotante, microcódigo y administración de memoria.
Fuente: Sistemas operativos
Historia y actualidad
Por Sergio Téllez Pérez 1º “A” I.T. GESTIÓN

miércoles

Sistemas operativos Historia y actualidad



Sistemas operativos
Historia y actualidad
La gestación
Como resultado, en la primavera de 1980, Paterson empezó a trabajar en lo
que se convertiría en MS-DOS. En julio, ya se había terminado cerca del 50 por
ciento del sistema conocido como QDOS 0.10 aunque rápidamente se presentó
QDOS 0.11. 'El primer paso fue escribir lo que CP/M-80 podía realizar.
El segundo fue diseñar un sistema de archivos rápido y eficiente'. Una de las
diferencias más significativas entre CP/M-86 y MS-DOS, cuando ya se hizo
realidad, fue el sistema de gestión de archivos. CP/M generalmente ofrece una
ventana de no más de 16 ó 32K; sin embargo, con MS-DOS, hay más
capacidad.
De hecho, Paterson creó el módulo de gestión de archivos de QDOS empleando
el mismo método que en Basic-86. 'Todo programador sabe que se van a
necesitar ciertas funcionalidades antes o después, razón por la que yo
construyo herramientas en las que se basa el próximo sustrato'. A finales de
agosto de 1980, QDOS 0.11 trabajaba y se comercializaba bastante bien.
Paterson trabajó duro para incluir todas las características propias de un
sistema operativo completo. 'Sin embargo, me quedé horrorizado cuando oí que
IBM lo estaba utilizando y que no lo había tirado por la ventana'.
En diciembre de 1980, Paterson y compañía presentaron 86-DOS, 0.33, que
representaba mejoras significativas sobre QDOS. '86-DOS reflejaba todo lo que
habíamos aprendido hasta entonces. El ensamblador, originalmente escrito en
el Z-80, se hizo más rápido. También hicimos algunos cambios en las
denominaciones del sistema'. Así, a finales de 1980, Seattle Computer vendió
86-DOS a OEMs (integradores) y a otras compañías como Microsoft.
En otro sentido, a principios de 1981, el ordenador personal de IBM todavía no
se había anunciado, aunque ciertos rumores planeaban sobre el producto del
Gigante Azul. 'Todos nosotros sospechábamos que IBM y Microsoft habían
llegado a algún tipo de acuerdo pero no estábamos seguros'.
En abril del mismo año, mientras Paterson se centraba en algunos cambios
internos del 86-DOS, como modificar las llamadas del sistema o incluir gestión
de errores para discos duros, Paterson decidió abandonar Seattle Computer. En
mayo, se fue a trabajar a Microsoft a tiempo completo en la versión PC-DOS de
86-DOS. 'Trabajé en Microsoft durante 11 meses.
En mayo, junio y julio me volqué sobre ciertos aspectos que nunca había
terminado, estaba remodelando PC-DOS'. Este fue el comienzo de una vorágine
de 11 meses. Casi a diario, Paterson se entrevistaba con la plantilla de Boca
Ratón para conseguir la aprobación de IBM e, instantáneamente, la compañía
respondía con críticas, modificaciones y problemas.
A pesar de todo, Paterson terminó PC-DOS en julio, un mes antes de que el
ordenador fuera anunciado oficialmente a nivel mundial. En ese momento, 86-
DOS se había convertido en MS-DOS. 'Microsoft quería tenerlo en su poder, de
manera que las dos firmas, Microsoft y Seattle Computer, llegaron a un acuerdo
dado que esta segunda empresa no tenía la cuota de mercado de Microsoft.
Consecuentemente, el 27 de julio de 1981, el sistema operativo se convirtió en
propiedad de Microsoft. Sin embargo, creo que las dos empresas tuvieron un
final feliz: la alianza se cerró pocas semanas antes de que el ordenador se
anunciara. Es decir, Microsoft fue de confianza'
Fuente: Sistemas operativos
Historia y actualidad
Por Sergio Téllez Pérez 1º “A” I.T. GESTIÓN

lunes

Factores y regulaciones que afectan el acceso a Internet


Sección III
Factores y regulaciones
que afectan el
acceso a Internet
Este teléfono tiene demasiadas deficiencias para ser seriamente
considerado como medio de comunicación.
El dispositivo no tiene ningún valor para nosotros.”
Memo interno de la Western Union, 1876.
El objeto de esta sección es ahondar en el estudio de los factores que afectan la decisión de un usuario potencial de conectarse a la red y hacer uso de la misma. Como toda industria en red, Internet genera grandes externalidades a todos los usuarios conectados a ella. Dichos usuarios se benefician cuando un nuevo abonado se conecta porque aumentan las posibilidades de comunicación, la variedad de los contenidos y el volumen disponible para todos, generando incrementos de la productividad, ya que el costo de acceso es el mismo. La disponibilidad de información a bajo costo es en la actualidad el insumo más importante de la nueva sociedad globalizada.
Para indagar sobre los factores que explican el acceso a la red, se hará en primer lugar, una descripción de la tecnología de Internet, sus principales diferencias con la telefonía fija analógica y fundamentalmente, las implicancias económicas que esta nueva tecnología está teniendo sobre el mercado de telecomunicaciones. Posteriormente, se hará una breve descripción del mercado de Internet en Argentina desde el lado de la oferta, proveedores de Internet o Internet Service Providers (ISPs) y desde la demanda
(usuarios). De lleno, ya en el tema tarifario, se presentará un análisis de los componentes del precio de acceso a Internet y los factores que los afectan, adelantando medidas de política del sector para aumentar la penetración de este servicio en la sociedad. Por último, se hará una comparación internacional de precios de acceso con diferentes países de la OCDE para ubicar a la Argentina internacionalmente
concluyendo con recomendaciones de política para el sector con el claro objetivo de generalizar el uso de esta novedosa herramienta tecnológica.
1. Internet y telefonía: similitudes, diferencias y convergencia Internet es una red de redes conectadas entre sí que se intercomunican siguiendo una serie de protocolos
(TCP/IP) que envían la información desmenuzada en forma de “paquetes”. La tecnología para enviar estos paquetes de datos del nodo emisor al receptor se llama conmutación de paquetes (packet switching) a diferencia de la telefonía analógica convencional que usa la conmutación de circuitos (circuit switching).
Más concretamente, el protocolo TCP (Transmission Control Protocol) es el encargado de desmenuzar el mensaje original en paquetes de información de algunos kilobytes de tamaño, enviarlos por la red telefónica a través de computadoras que hacen de conmutadores (routers), recibirlos en el nodo receptor en orden de llegada y reensamblarlos reconstruyendo así el mensaje original. Cada paquete contiene la dirección de origen y la dirección de llegada (IP address) para que los paquetes que viajan por diferentes canales de la red lleguen al mismo destino y no se pierdan en el camino. Nótese la diferencia importante entre Internet y la telefonía convencional: a pesar de transmitirse los mensajes por los mismos canales (fibra óptica o radio enlaces de las redes telefónicas) las tecnologías de transmisión son diametralmente opuestas.
En telefonía una vez que se inicia una llamada entre el nodo emisor y el receptor se establece un canal de transmisión de información que permanece inutilizado para usos alternativos por el tiempo que dure la conversación, se hable o no se hable. Es decir, la línea permanecerá ocupada hasta que uno de los dos abonados cuelgue. Además, el trayecto de la información entre los dos nodos es fijo para esa comunicación
y está dado por la distancia más corta de los vínculos disponibles al establecer la comunicación entre centrales conmutadoras. Si alguna de las centrales que forma parte de la ruta entre estos nodos se daña, esa comunicación se interrumpe. Nótese que esta es una forma muy ineficiente de establecer una comunicación entre dos puntos: si la línea está ocupada y aunque las personas que están comunicadas estén sin hablar, el canal físico entre éstas permanece ocupado impidiendo darle otros usos alternativos, probablemente más valiosos.
Fuente: .com.ar
La Revolución de las Tecnologías de la Informática y la Comunicación
en Argentina

martes

Los comienzos de DOS- los comienzos de la informática



Historia y actualidad
Los comienzos de DOS- los comienzos de la informática
Bajo el concepto de 'la vida empieza con un disco duro', Tim Paterson define la
informática en un período en el que la única manera de obtener un ordenador
era comprar los componentes y ensamblarlos uno mismo.
Tim Paterson, principal artífice del que sería uno de los sistemas operativos más
conocidos del mercado, con varios cursos universitarios a sus espaldas y un
poco de práctica en el mercado de distribución, empezó a diseñar sus propias
estrategias sobre lo que tenía delante de los ojos: los periféricos.
'Rod Brock me contrató en junio de 1978 por 50 dólares al día y, tras unas
semanas trabajando en el departamento de consultoría, me convertí en
empleado de Seattle Computer'.
Durante su época de estudiante, Paterson había mostrado mucho interés por
los sistemas operativos, al igual que por las soluciones de hardware y
compiladores. Sin embargo, gradualmente, la desilusión se iba incrementando.
'Todo lo que nos hacían estudiar era demasiado teórico y no lo que yo
necesitaba'.
En Seattle Computer, Tim Paterson trabajó en varios proyectos, como rediseñar
memorias S-100. No obstante, las cosas empezaron a cambiar cuando 'la
promesa de la programación' acudió a un seminario sobre el chip 8086 de Intel
en julio de 1978.
'Me gané el respeto de Rod Brock e hice algunas sugerencias. Le di unas
cuantas vueltas al procesador 8086 mientras Brock me dio carta blanca. De
hecho, el primer diseño de la placa 8086 se terminó a finales de enero pero
nosotros teníamos ya el prototipo en mayo de 1979. Creamos tres placas,
aunque sin ningún vínculo que las relacionara. Existían ambos factores, tanto
errores de presentación como de diseño, pero conseguimos que dos prototipos
funcionaran'.
Por su parte, Seattle Computer se planteaba ya por aquellos años la idea de
crear su propio ordenador aunque las estrategias de negocio al respecto nunca
llegaban.
Una vez el prototipo 8085 estuvo funcionando, Seattle se acercó a Digital
Research para comprobar si podía lograr que CP/M trabajara con él. Junto a
esto, Microsoft, que se había trasladado a Seattle en enero de 1979, quería
observar si algunos de sus programas funcionaban. Y, a finales de mayo de
1979, Paterson se incorporó a Microsoft para trabajar con Bob O'Rear.
'Microsoft ya había desarrollado buenas herramientas, como un ensamblador
para usar con el PDP-10. Había unos cuantos virus pero básicamente la placa
trabajaba correctamente junto con las soluciones que se habían desarrollado
recientemente'.
En la Conferencia National Computer celebrada en Nueva York en el año 1979,
Seattle Computer fue invitado por Microsoft y Lifeboat. Estas mostraron Basic-
86, entonces el único software diseñado para el 8086. Mientras, Seattle
Computer empezaba a comercializar el producto con su placa en noviembre,
inicialmente preparado para desarrolladores de software.
En abril de 1980, Paterson empezó a trabajar por primera vez en un sistema
operativo. 'Necesitábamos una solución en Seattle Computer para nuestros
propios ordenadores y yo quería construir una, así que nos decidimos de lleno.
Además, siempre quise escribir mi propio sistema operativo. Nunca me gustó
CP/M y, de hecho, pensaba que yo podía hacerlo mucho mejor'.
Fuente: Historia y actualidad
Por Sergio Téllez Pérez 1º “A” I.T. GESTIÓN

jueves

La información más útil del boletín de La sociedad civil


Cuadro 11. La información más útil del boletín de La sociedad civil en línea
Tipo de información
Porcentaje de usuarios que la considera la más útil
Oportunidades de capacitación 66%
Llamados y convocatorias 61%
Publicaciones 56%
Noticias regionales 55%
Noticias internacionales 49%
Información sobre becas 49%
Agenda de actividades 44%
Nota: la suma supera el 100% porque los usuarios podían elegir más de una opción.
“ A través de boletines he
conseguido becas, he
conseguido financiamiento, he
viajado, he conocido a otra
gente que está trabajando en
cosas muy parecidas. Para mí
es una antena muy
importante. Hoy no podría
desarrollar mi trabajo
ignorando todo lo que se está
haciendo en otros lugares y los
boletines muchas veces
facilitan ese acceso.”
(suscriptora entrevistada)
Los lectores usan mayoritariamente la
información que se difunde en los
boletines de La sociedad civil en línea para
su propio trabajo o como información
general en su actividad.
Cuadro 12. Usos otorgados a la información del boletín de La sociedad civil
en línea
Uso Porcentaje de lectores que le otorga este uso
Uso laboral o institucional 64%
Información general 61%
Actualización profesional 47%
Para actividades educativas 31%
Búsqueda de oportunidades laborales 14%
Nota: la suma supera el 100% porque los usuarios podían elegir más de una opción.
Los lectores mencionan otros usos, destacándose la socialización de la
información que muchos usuarios emprenden: difusión a su propia red; replicación
e inclusión en otras páginas web.
Ante la pregunta sobre a qué tipo información –y en qué áreas- La sociedad civil
en línea debería prestar más atención, más de la mitad de los usuarios eligen dos tipos
de información: la relacionada con oportunidades de capacitación a distancia y la
información en cooperación internacional.
Fuente: Fondo Regional para la Innovación Digital
en América Latina y el Caribe
Las tecnologías de la información y la comunicación para la integración social en
América Latina
Informe de investigación

martes

CUADERNOS / SOCIEDAD DE LA INFORMACIÓN 5



CUADERNOS / SOCIEDAD DE LA INFORMACIÓN 5
5.1. Proyecto GRIMM
Proyecto pedagógico innovador que persigue, desde su
puesta en marcha en 1996, integrar la tecnología en las
aulas de los centros de Educación Infantil, Primaria y
Secundaria40. El proyecto GRIMM es un proyecto de la
Universidad de Barcelona y de la empresa Apple en el
que participan muy activamente colegios, instituciones
y empresas. Un grupo de trabajo formado por coordinadores
nacionales dinamiza el proyecto y coordina la
admisión y la participación de los centros. En la actualidad,
el proyecto se ha convertido en un espacio donde
maestros interesados en la educación con TIC comparten
experiencias, debates, valoraciones e investigaciones de
sus propias aulas y escuelas. El proyecto, cuyo eje es la
discusión, ha evolucionado hacia un enfoque más didáctico
y a una orientación del ordenador como herramienta
para la comunicación, la expresión y la creación, en la
que la producción digital de los niños es protagonista.
Destacan los trabajos dirigidos al lenguaje y a la cultura
audiovisual. Dentro de las aportaciones de los participantes
destaca el video digital educativo. El colegio “Erain”
ha puesto en marcha una iniciativa cuyo objetivo es la
utilización educativa del video digital41. Con este proyecto
de I+D+i, financiado por la Diputación de Guipúzcoa,
el Gobierno Vasco y el Fondo Europeo de Desarrollo Regional,
se pretende aproximar los medios audiovisuales
a los alumnos, realizar trabajos entre distintos centros
educativos y proporcionar a los docentes experiencias de
utilización del video digital en la educación. El colegio
“Erain” ha puesto en marcha un portal sobre el proyecto42
que, además de informar sobre cómo se realiza un video,
ofrece una colección de videos producidos por los alumnos
sobre contenidos tratados en clase.
Fuente: CUADERNOS / SOCIEDAD DE LA INFORMACIÓN 5
Las nuevas tecnologías en la educación
Rocío Martín-Laborda
Fundación AUNA

jueves

Sistemas Operativos Historia y Actualidad



Sistemas Operativos
Historia y Actualidad
Definición
Un sistema operativo (SO) es un conjunto de programas o software
destinado a permitir la comunicación del usuario con un ordenador y gestionar
sus recursos de manera cómoda y eficiente. Comienza a trabajar cuando se
enciende el ordenador, y gestiona el hardware de la máquina desde los niveles
más básicos.
Hoy en día un sistema operativo se puede encontrar normalmente todos los
aparatos electrónicos complejos que podamos utilizar, ya que gracias a estos
podemos entender la máquina y que ésta cumpla con sus funciones; éste es el
caso de: teléfonos móviles, reproductores de DVD, mini cadenas, auto radios, y
muchos más; incluyendo más visiblemente a los Ordenadores Personales (PC).
Otra definición
Otra definición posible y bastante aceptada define un sistema operativo como
una capa compleja entre el hardware y el usuario, concebible también como
una máquina virtual, que facilita al usuario o al programador las herramientas e
interfaces adecuadas para realizar sus tareas informáticas, abstrayéndole de los
complicados procesos necesarios para llevarlas a cabo. Por ejemplo, un usuario
normal simplemente abre los ficheros grabados en un disco, sin preocuparse
por la disposición de los bits en el medio físico, los tiempos de espera del motor
del disco, la posición de un cabezal, el acceso de otros usuarios, etc.
Aunque es un tema propenso a la discusión, algunos expertos están de acuerdo
en que un sistema operativo debe constar de, por lo menos, un conjunto de
programas similar al siguiente:
· Un compilador de algún lenguaje de programación, en Unix es de C.
· Un enlazador.
· Un ensamblador.
· Un intérprete de comandos.
· Una amplia biblioteca del lenguaje de la plataforma.
· Un kernel o núcleo.
Características
· Administración de tareas:
o Monotarea: Si solamente puede ejecutar un programa (aparte de
los procesos del propio S.O.) en un momento dado. Una vez que
empieza a funcionar un programa, continuará haciéndolo hasta su
finalización o interrupción.
o Multitarea: Si es capaz de ejecutar varios programas al mismo
tiempo. Este tipo de S.O. normalmente asigna los recursos
disponibles (CPU, memoria, periféricos) de forma alternativa a los
programas que los solicitan, de manera que el usuario percibe que
todos funcionan a la vez.
· Administración de usuarios:
o Monousuario: Si sólo permite ejecutar los programas de un
usuario al mismo tiempo.
o Multiusuario: Si permite que varios usuarios ejecuten
simultáneamente sus programas, accediendo a la vez a los
recursos del ordenador. Normalmente estos SS.OO. utilizan
métodos de protección de datos, de manera que un programa no
pueda usar o cambiar los datos de otro usuario.
· Manejo de recursos:
o Centralizado: Si permite utilizar los recursos de un solo ordenador.
o Distribuido: Si permite utilizar los recursos (memoria, CPU, disco,
periféricos...) de más de un ordenador al mismo tiempo.
· Organización interna:
o Kernel monolítico (Linux, BSD, skyOS, Windows, Syllable).
o Microkernel (BeOS, Mach, Mac OS X, newOS).
o Nanokernel (AdeOS, Eros, KeyKOS, Brix-OS).
o VOiD (unununium, TUNES, Vapour).
o Sasos (Opal, Mungi, BriX).
o VM (Merlin, Argante).
o Exokernel (MIT exokernel).
o Cache kernel (Universidad de Stanford).
Fuente: Sistemas Operativos
Historia y Actualidad
Por Sergio Téllez Pérez 1º “A” I.T. GESTIÓN

martes

Sistemas Operativos Historia y actualidad



Sistemas Operativos
Historia y actualidad
Definición
Un sistema operativo (SO) es un conjunto de programas o software
destinado a permitir la comunicación del usuario con un ordenador y gestionar
sus recursos de manera cómoda y eficiente. Comienza a trabajar cuando se
enciende el ordenador, y gestiona el hardware de la máquina desde los niveles
más básicos.
Hoy en día un sistema operativo se puede encontrar normalmente todos los
aparatos electrónicos complejos que podamos utilizar, ya que gracias a estos
podemos entender la máquina y que ésta cumpla con sus funciones; éste es el
caso de: teléfonos móviles, reproductores de DVD, mini cadenas, auto radios, y
muchos más; incluyendo más visiblemente a los Ordenadores Personales (PC).
Otra definición
Otra definición posible y bastante aceptada define un sistema operativo como
una capa compleja entre el hardware y el usuario, concebible también como
una máquina virtual, que facilita al usuario o al programador las herramientas e
interfaces adecuadas para realizar sus tareas informáticas, abstrayéndole de los
complicados procesos necesarios para llevarlas a cabo. Por ejemplo, un usuario
normal simplemente abre los ficheros grabados en un disco, sin preocuparse
por la disposición de los bits en el medio físico, los tiempos de espera del motor
del disco, la posición de un cabezal, el acceso de otros usuarios, etc.
Aunque es un tema propenso a la discusión, algunos expertos están de acuerdo
en que un sistema operativo debe constar de, por lo menos, un conjunto de
programas similar al siguiente:
· Un compilador de algún lenguaje de programación, en Unix es de C.
· Un enlazador.
· Un ensamblador.
· Un intérprete de comandos.
· Una amplia biblioteca del lenguaje de la plataforma.
· Un kernel o núcleo.
Características
· Administración de tareas:
o Monotarea: Si solamente puede ejecutar un programa (aparte de
los procesos del propio S.O.) en un momento dado. Una vez que
empieza a funcionar un programa, continuará haciéndolo hasta su
finalización o interrupción.
o Multitarea: Si es capaz de ejecutar varios programas al mismo
tiempo. Este tipo de S.O. normalmente asigna los recursos
disponibles (CPU, memoria, periféricos) de forma alternativa a los
programas que los solicitan, de manera que el usuario percibe que
todos funcionan a la vez.
· Administración de usuarios:
o Monousuario: Si sólo permite ejecutar los programas de un
usuario al mismo tiempo.
o Multiusuario: Si permite que varios usuarios ejecuten
simultáneamente sus programas, accediendo a la vez a los
recursos del ordenador. Normalmente estos SS.OO. utilizan
métodos de protección de datos, de manera que un programa no
pueda usar o cambiar los datos de otro usuario.
· Manejo de recursos:
o Centralizado: Si permite utilizar los recursos de un solo ordenador.
o Distribuido: Si permite utilizar los recursos (memoria, CPU, disco,
periféricos...) de más de un ordenador al mismo tiempo.
· Organización interna:
o Kernel monolítico (Linux, BSD, skyOS, Windows, Syllable).
o Microkernel (BeOS, Mach, Mac OS X, newOS).
o Nanokernel (AdeOS, Eros, KeyKOS, Brix-OS).
o VOiD (unununium, TUNES, Vapour).
o Sasos (Opal, Mungi, BriX).
o VM (Merlin, Argante).
o Exokernel (MIT exokernel).
o Cache kernel (Universidad de Stanford).
Fuente: Sistemas Operativos
Historia y actualidad
Por Sergio Téllez Pérez 1º “A” I.T. GESTIÓN

jueves

La burbuja .com



La burbuja .com
El repentino bajo precio para llegar a millones de personas en el mundo, y la posibilidad de vender y saber de la gente a que se vendía en el mismo momento, prometió cambiar el dogma de negocio establecido en la publicidad, las ventas por correo, y muchas más áreas. La web fue una nueva aplicación rompedora—podía juntar compradores y vendedores sin relación previa de manera fluida y con bajo coste. Los visionarios alrededor del mundo desarrollaron nuevos modelos de negocio, y se dirigieron a su capitalista de riesgo más cercano. Por supuesto una proporción de los nuevos empresarios tenían realmente talento en la administración de empresas y las ventas y crecieron; pero la mayoría era simplemente gente con ideas, y no gestionaron el influjo de capital prudentemente. Además, muchos planes de negocios .com estaban fundamentados sobre el supuesto que usando Internet, evitarían los canales de distribución de los negocios existentes y por tanto no tendrían que competir con ellos; cuando los negocios establecidos con fuertes marcas desarrollaron su propia presencia en Internet, estas esperanzas fueron destrozadas, y los recién llegados quedaron abandonados en su negocio intentando romper los mercados dominados por negocios más grandes y establecidos. Muchos no tuvieron la capacidad de hacerlo.
La burbuja .com estalló el 10 de marzo de 2000, cuando el índice NASDAQ compuesto fuertemente por valores tecnológicos hizo su máximo en 5048,62 (máximo intradía 5132,52), más del doble de su valor un año anterior. Para 2001, la deflación de la burbuja estaba yendo a toda velocidad. La mayoría de las .com había cerrado el negocio, después de haber quemado todo su capital riesgo, a menudo sin ni siquiera tener un beneficio bruto.
Fuente: Tema 1: Historia y evolución de Internet
Curs d’estiu Com utilitzar Internet amb confiança i seguretat

El Internet de las cosas | ¿Qué es y cómo funciona?

El Internet de las cosas | ¿Qué es y cómo funciona? Te explicamos que es el Internet de las cosas y como funciona. Además te mostram...