jueves



Sistemas operativos Historia y actualidad

Con la creciente popularidad de los microprocesadores, otras compañías
trasladaron Unix a nuevas máquinas, pero su simplicidad y claridad tentó a
muchos a aumentarlo bajo sus puntos de vista, resultando muchas variantes
del sistema básico. En el período entre 1977 y 1982, los Laboratorios Bell
combinaron algunas variantes de AT&T dentro de un sistema simple, conocido
comercialmente como Unix System III. Los Laboratorios Bell más tarde
añadieron muchas características nuevas al Unix System III, llamando al nuevo
producto Unix System V, y AT&T anunció su apoyo oficial al System V en enero
de 1983. Sin embargo, algunas personas en la Universidad de Berkeley en
California habían desarrollado una variante del Unix, BSD, para máquinas VAX,
incluyendo algunas nuevas e interesantes características.
A comienzos de 1984, había cerca de 100.000 instalaciones del sistema UNIX
en el mundo, funcionando en máquinas con un amplio rango de computadoras,
desde microprocesadores hasta mainframes. Ningún otro sistema operativo
puede hacer esta declaración.
Durante años, varios consorcios industriales han intentado hacer de Unix un
estándar como Dos, Windows o Apple, pero desde que Unix puede ser
ejecutado en varias plataformas de hardware, la única forma de que el mismo
programa pueda funcionar en cualquiera de ellas, es utilizar un lenguaje
intermedio similar a Java. Como ejemplo, el ANDF fue un intento menor de
esto.
Lo que los desarrolladores de aplicaciones Unix esperaban era una única
interfaz de programación Unix (API), de forma que sólo tengan que recompilar
el código fuente de cada plataforma, más que mantener diferentes versiones de
un código fuente. Los últimos intentos de llevar a cabo esto es el Single UNIX
Specification.
Incluso a pesar de sus muchas versiones, Unix es ampliamente utilizada en
aplicaciones de misión crítica para servidores y sistemas de procesamiento de
transacciones.
Desarrollado en los Laboratorios Bell de AT&T a finales de los 60, este sistema
operativo es el más popular dentro de los sistema de gama alta.
Unix es un sistema operativo multiusuario y multitarea ampliamente utilizado
para controlar programas en estaciones de trabajo y especialmente en
servidores. Un sinnúmero de aplicaciones comerciales se ejecuta en servidores
Unix, y muchos sitios web funcionan bajo Unix. Hay diferentes versiones del
sistema operativo y, excepto en el mundo de los ordenadores personales,
donde el que domina es Windows, casi todos los vendedores de hardware lo
ofrecen como sistema operativo primario o secundario. Sun ha sido uno de los
instrumentos más importantes en la comercialización de Unix con su sistema
operativo Solaris, antiguamente llamado SunOS. HP, IBM y SCO también han
sido grandes vendedores y promotores de Unix.
Unix está escrito en C y ambos fueron desarrollados por AT&T y distribuidos
libremente a instituciones gubernamentales e instituciones académicas, lo que
supuso que fuera incluido en una mayor variedad de familias de máquinas que
cualquier otros sistema operativo. Con estos inicios, Unix llegó a ser un
sinónimo de sistema abierto.
Los orígenes del sistema Unix se remontan al desarrollo de un proyecto iniciado
en 1968. Este proyecto fue realizado por General Electric, AT&T Bell y el MIT
(Instituto Tecnológico de Massacusets), llevaron a cabo el desarrollo de un
sistema operativo con nuevos conceptos como la multitarea, la gestión de
archivos o la interacción con el usuario. El resultado de estas investigaciones se
bautizó como Multics.
El proyecto resultó ser demasiado ambicioso, por lo que no llegó a buen fin y
terminó abandonándose.
Posteriormente la idea de este proyecto se vuelve a retomar y conduce al gran
desarrollo en 1969 del sistema operativo Unix. Entre los investigadores
destacaban Ken Thompson y Dennis Ritchie. En principio, este sistema
operativo recibió el nombre de Unics, aunque un año después pasa a llamarse
Unix, como se conoce hoy en día.
Inicialmente Unix fue considerado como un proyecto de investigación, hasta el
punto de distribuirse de forma gratuita en algunas universidades, pero después
la demanda del producto hizo que los laboratorios Bell iniciaran su distribución
oficial.
Para 1974 Unix se había convertido en un eficaz sistema operativo que se
ejecutaba principalmente en máquinas PDP, llegando a ser muy popular en
entornos académicos y científicos.
Fuente: Sistemas operativos Historia y actualidad
Por Sergio Téllez Pérez 1º “A” I.T. GESTIÓN

lunes

Internet a través de sus protocolos TCP/IP



Internet a través de sus protocolos TCP/IP resuelve este problema aún a pesar de usar los mismos medios para transmitir las señales. Una vez que el TCP desmenuza el mensaje original en paquetes, estos se dispersan y viajan por diferentes canales de la red telefónica en función de la mayor o menor capacidad disponible que encuentren en el camino, de forma tal de mantener los canales de comunicación llenos o sin espacios vacíos. Como a su vez, el protocolo IP escribe en cada paquete la dirección de origen y la de llegada, estos no se pierden y son recibidos por el nodo receptor y reensamblados reconstruyendo el mensaje original. Esta nueva tecnología tiene enormes implicancias económicas porque al hacer un uso eficiente de la red telefónica reduce drásticamente el costo de transmitir información sin necesidad de cambiar el medio de transmisión de dicha información. Paquetes de distintos orígenes y distintos destinos son intercalados unos con los otros de forma tal de mantener siempre llenos los canales de comunicación
y optimizar el uso de la capacidad instalada.
Sin embargo, esta modalidad de transmisión presenta algunas desventajas con respecto a la conmutación de circuitos de la telefonía convencional, fundamentalmente para la transmisión de voz: en la telefonía tradicional es más fácil monitorear la calidad de la transmisión porque se desarrolla en un solo canal. En Internet, y fundamentalmente en horarios pico, la característica multiruta de la conmutación de paquetes lo hace vulnerable a la congestión y suelen perderse paquetes durante una transmisión. Esto
dificulta su uso para la telefonía de voz al deteriorarse la calidad de la señal15. De todas formas, la conmutación de circuitos puede usarse simultáneamente con la conmutación de paquetes para evitar estos problemas y obtener resultados óptimos.
¿Qué otras diferencias separan a la telefonía tradicional de Internet? La International Telecommunications
Union (ITU, 1999) aporta dos contrastes relevantes: Ø En primer lugar está la metodología de cobro por el uso del servicio. La telefonía se cobra usualmente
en función del uso (por minuto de llamada y en función de la distancia de la llamada) mientras que Internet se cobra generalmente a través de una tarifa plana que habilita a los usuarios a un cierto número de horas de navegación (aunque crecientemente de uso ilimitado). Ø En segundo lugar, otra diferencia importante está en la naturaleza del tráfico y en la conciliación de cargos de acceso en uno y otro sentido. Uno podría imaginar, conceptualmente, a la telefonía como un servicio de tráfico balanceado. Con un tráfico de llamadas de un país (por ej. EEUU) hacia el otro (por ej. Argentina) similar en uno y otro sentido. En la práctica esto no se da, y por ello los cargos por
---------------------------------------------------
15 Obviamente esta desventaja está siendo rápidamente subsanada por avances tecnológicos, ver ITU (1999)
-----------------------------------------------------
origen y terminación de llamadas se reglan en base al sistema de tasa contable (accounting rate), que es acordado por los diferentes países. Si los tráficos son equilibrados, los pagos en uno y otro sentido se anulan y el flujo monetario neto es cero16. Con Internet el problema se agudiza notablemente, el tráfico es totalmente desbalanceado porque el 80% de los sitios de Internet y el 40% de los cables
troncales de fibra óptica (backbones) del mundo están en EEUU (ITU, 1999). Esto significa que el tráfico desde EEUU hacia Latinoamérica es muy superior que en el sentido contrario. Esto tiene implicancias económicas muy importantes, ya que como en Internet no hay tratados de reciprocidad en cargos de interconexión como en telefonía, la totalidad de las inversiones en infraestructura de fibra óptica y satelital para Internet que usa Latinoamérica (que está dirigida a EEUU) debe ser financiada
por empresas latinoamericanas y trasladada a las tarifas que paga el usuario final17. Más aún, a medida que el uso de Internet en Latinoamérica se incrementa y se demanda más ancho de banda a EEUU, son las empresas de los países en desarrollo que ayudan cada vez más a financiar el incremento de ancho de banda en los backbones norteamericanos.
Fuente: .com.ar
La Revolución de las Tecnologías de la
Informática y la Comunicación
en Argentina

viernes

Historia y actualidad Unix, el grande entre los grandes



Sistemas operativos
Historia y actualidad
Unix, el grande entre los grandes
Desarrollado en los Laboratorios Bell de AT&T a finales de los 60, este sistema
operativo es el más popular dentro de los sistema de gama alta.
Unix es un sistema operativo multiusuario y multitarea ampliamente utilizado
para controlar programas en estaciones de trabajo y especialmente en
servidores. Un sinnúmero de aplicaciones comerciales se ejecuta en servidores
Unix, y muchos sitios Web funcionan bajo Unix. Hay diferentes versiones del
sistema operativo y, excepto en el mundo de los ordenadores personales,
donde el que domina es Windows, casi todos los vendedores de hardware lo
ofrecen como sistema operativo primario o secundario. Sun ha sido uno de los
instrumentos más importantes en la comercialización de Unix con su sistema
operativo Solaris, antiguamente llamado SunOS. HP, IBM y SCO también han
sido grandes vendedores y promotores de Unix.
Unix está escrito en C y ambos fueron desarrollados por AT&T y distribuidos
libremente a instituciones gubernamentales e instituciones académicas, lo que
supuso que fuera incluido en una mayor variedad de familias de máquinas que
cualquier otros sistema operativo. Con estos inicios, Unix llegó a ser un
sinónimo de sistema abierto.
Los orígenes del sistema Unix se remontan al desarrollo de un proyecto iniciado
en 1968. Este proyecto fue realizado por General Electric, AT&T Bell y el MIT
(Instituto Tecnológico de Massacusets), llevaron a cabo el desarrollo de un
sistema operativo con nuevos conceptos como la multitarea, la gestión de
archivos o la interacción con el usuario. El resultado de estas investigaciones se
bautizó como Multics.
El proyecto resultó ser demasiado ambicioso, por lo que no llegó a buen fin y
terminó abandonándose.
Posteriormente la idea de este proyecto se vuelve a retomar y conduce al gran
desarrollo en 1969 del sistema operativo Unix. Entre los investigadores
destacaban Ken Thompson y Dennis Ritchie. En principio, este sistema
operativo recibió el nombre de Unics, aunque un año después pasa a llamarse
Unix, como se conoce hoy en día.
Inicialmente Unix fue considerado como un proyecto de investigación, hasta el
punto de distribuirse de forma gratuita en algunas universidades, pero después
la demanda del producto hizo que los laboratorios Bell iniciaran su distribución
oficial.
Para 1974 Unix se había convertido en un eficaz sistema operativo que se
ejecutaba principalmente en máquinas PDP, llegando a ser muy popular en
entornos académicos y científicos.
En la variedad está el gusto
En la universidad de California de Berkeley se llevaron a cabo numerosas
mejoras del sistema y las versiones de Unix procedentes de esta universidad
llegaron a ser ampliamente utilizadas. Para finales de los años 70, las versiones
comerciales de Unix, tales como IS/1 y XENIX ya estaban disponibles.
En 1977, se inició la venta de Unix en el mercado comercial. Durante este
tiempo, Unix también adquirió más potencia, incluyendo soporte para
procesadores con coma flotante, microcódigo y administración de memoria.
Fuente: Sistemas operativos
Historia y actualidad
Por Sergio Téllez Pérez 1º “A” I.T. GESTIÓN

miércoles

Sistemas operativos Historia y actualidad



Sistemas operativos
Historia y actualidad
La gestación
Como resultado, en la primavera de 1980, Paterson empezó a trabajar en lo
que se convertiría en MS-DOS. En julio, ya se había terminado cerca del 50 por
ciento del sistema conocido como QDOS 0.10 aunque rápidamente se presentó
QDOS 0.11. 'El primer paso fue escribir lo que CP/M-80 podía realizar.
El segundo fue diseñar un sistema de archivos rápido y eficiente'. Una de las
diferencias más significativas entre CP/M-86 y MS-DOS, cuando ya se hizo
realidad, fue el sistema de gestión de archivos. CP/M generalmente ofrece una
ventana de no más de 16 ó 32K; sin embargo, con MS-DOS, hay más
capacidad.
De hecho, Paterson creó el módulo de gestión de archivos de QDOS empleando
el mismo método que en Basic-86. 'Todo programador sabe que se van a
necesitar ciertas funcionalidades antes o después, razón por la que yo
construyo herramientas en las que se basa el próximo sustrato'. A finales de
agosto de 1980, QDOS 0.11 trabajaba y se comercializaba bastante bien.
Paterson trabajó duro para incluir todas las características propias de un
sistema operativo completo. 'Sin embargo, me quedé horrorizado cuando oí que
IBM lo estaba utilizando y que no lo había tirado por la ventana'.
En diciembre de 1980, Paterson y compañía presentaron 86-DOS, 0.33, que
representaba mejoras significativas sobre QDOS. '86-DOS reflejaba todo lo que
habíamos aprendido hasta entonces. El ensamblador, originalmente escrito en
el Z-80, se hizo más rápido. También hicimos algunos cambios en las
denominaciones del sistema'. Así, a finales de 1980, Seattle Computer vendió
86-DOS a OEMs (integradores) y a otras compañías como Microsoft.
En otro sentido, a principios de 1981, el ordenador personal de IBM todavía no
se había anunciado, aunque ciertos rumores planeaban sobre el producto del
Gigante Azul. 'Todos nosotros sospechábamos que IBM y Microsoft habían
llegado a algún tipo de acuerdo pero no estábamos seguros'.
En abril del mismo año, mientras Paterson se centraba en algunos cambios
internos del 86-DOS, como modificar las llamadas del sistema o incluir gestión
de errores para discos duros, Paterson decidió abandonar Seattle Computer. En
mayo, se fue a trabajar a Microsoft a tiempo completo en la versión PC-DOS de
86-DOS. 'Trabajé en Microsoft durante 11 meses.
En mayo, junio y julio me volqué sobre ciertos aspectos que nunca había
terminado, estaba remodelando PC-DOS'. Este fue el comienzo de una vorágine
de 11 meses. Casi a diario, Paterson se entrevistaba con la plantilla de Boca
Ratón para conseguir la aprobación de IBM e, instantáneamente, la compañía
respondía con críticas, modificaciones y problemas.
A pesar de todo, Paterson terminó PC-DOS en julio, un mes antes de que el
ordenador fuera anunciado oficialmente a nivel mundial. En ese momento, 86-
DOS se había convertido en MS-DOS. 'Microsoft quería tenerlo en su poder, de
manera que las dos firmas, Microsoft y Seattle Computer, llegaron a un acuerdo
dado que esta segunda empresa no tenía la cuota de mercado de Microsoft.
Consecuentemente, el 27 de julio de 1981, el sistema operativo se convirtió en
propiedad de Microsoft. Sin embargo, creo que las dos empresas tuvieron un
final feliz: la alianza se cerró pocas semanas antes de que el ordenador se
anunciara. Es decir, Microsoft fue de confianza'
Fuente: Sistemas operativos
Historia y actualidad
Por Sergio Téllez Pérez 1º “A” I.T. GESTIÓN

lunes

Factores y regulaciones que afectan el acceso a Internet


Sección III
Factores y regulaciones
que afectan el
acceso a Internet
Este teléfono tiene demasiadas deficiencias para ser seriamente
considerado como medio de comunicación.
El dispositivo no tiene ningún valor para nosotros.”
Memo interno de la Western Union, 1876.
El objeto de esta sección es ahondar en el estudio de los factores que afectan la decisión de un usuario potencial de conectarse a la red y hacer uso de la misma. Como toda industria en red, Internet genera grandes externalidades a todos los usuarios conectados a ella. Dichos usuarios se benefician cuando un nuevo abonado se conecta porque aumentan las posibilidades de comunicación, la variedad de los contenidos y el volumen disponible para todos, generando incrementos de la productividad, ya que el costo de acceso es el mismo. La disponibilidad de información a bajo costo es en la actualidad el insumo más importante de la nueva sociedad globalizada.
Para indagar sobre los factores que explican el acceso a la red, se hará en primer lugar, una descripción de la tecnología de Internet, sus principales diferencias con la telefonía fija analógica y fundamentalmente, las implicancias económicas que esta nueva tecnología está teniendo sobre el mercado de telecomunicaciones. Posteriormente, se hará una breve descripción del mercado de Internet en Argentina desde el lado de la oferta, proveedores de Internet o Internet Service Providers (ISPs) y desde la demanda
(usuarios). De lleno, ya en el tema tarifario, se presentará un análisis de los componentes del precio de acceso a Internet y los factores que los afectan, adelantando medidas de política del sector para aumentar la penetración de este servicio en la sociedad. Por último, se hará una comparación internacional de precios de acceso con diferentes países de la OCDE para ubicar a la Argentina internacionalmente
concluyendo con recomendaciones de política para el sector con el claro objetivo de generalizar el uso de esta novedosa herramienta tecnológica.
1. Internet y telefonía: similitudes, diferencias y convergencia Internet es una red de redes conectadas entre sí que se intercomunican siguiendo una serie de protocolos
(TCP/IP) que envían la información desmenuzada en forma de “paquetes”. La tecnología para enviar estos paquetes de datos del nodo emisor al receptor se llama conmutación de paquetes (packet switching) a diferencia de la telefonía analógica convencional que usa la conmutación de circuitos (circuit switching).
Más concretamente, el protocolo TCP (Transmission Control Protocol) es el encargado de desmenuzar el mensaje original en paquetes de información de algunos kilobytes de tamaño, enviarlos por la red telefónica a través de computadoras que hacen de conmutadores (routers), recibirlos en el nodo receptor en orden de llegada y reensamblarlos reconstruyendo así el mensaje original. Cada paquete contiene la dirección de origen y la dirección de llegada (IP address) para que los paquetes que viajan por diferentes canales de la red lleguen al mismo destino y no se pierdan en el camino. Nótese la diferencia importante entre Internet y la telefonía convencional: a pesar de transmitirse los mensajes por los mismos canales (fibra óptica o radio enlaces de las redes telefónicas) las tecnologías de transmisión son diametralmente opuestas.
En telefonía una vez que se inicia una llamada entre el nodo emisor y el receptor se establece un canal de transmisión de información que permanece inutilizado para usos alternativos por el tiempo que dure la conversación, se hable o no se hable. Es decir, la línea permanecerá ocupada hasta que uno de los dos abonados cuelgue. Además, el trayecto de la información entre los dos nodos es fijo para esa comunicación
y está dado por la distancia más corta de los vínculos disponibles al establecer la comunicación entre centrales conmutadoras. Si alguna de las centrales que forma parte de la ruta entre estos nodos se daña, esa comunicación se interrumpe. Nótese que esta es una forma muy ineficiente de establecer una comunicación entre dos puntos: si la línea está ocupada y aunque las personas que están comunicadas estén sin hablar, el canal físico entre éstas permanece ocupado impidiendo darle otros usos alternativos, probablemente más valiosos.
Fuente: .com.ar
La Revolución de las Tecnologías de la Informática y la Comunicación
en Argentina

martes

Los comienzos de DOS- los comienzos de la informática



Historia y actualidad
Los comienzos de DOS- los comienzos de la informática
Bajo el concepto de 'la vida empieza con un disco duro', Tim Paterson define la
informática en un período en el que la única manera de obtener un ordenador
era comprar los componentes y ensamblarlos uno mismo.
Tim Paterson, principal artífice del que sería uno de los sistemas operativos más
conocidos del mercado, con varios cursos universitarios a sus espaldas y un
poco de práctica en el mercado de distribución, empezó a diseñar sus propias
estrategias sobre lo que tenía delante de los ojos: los periféricos.
'Rod Brock me contrató en junio de 1978 por 50 dólares al día y, tras unas
semanas trabajando en el departamento de consultoría, me convertí en
empleado de Seattle Computer'.
Durante su época de estudiante, Paterson había mostrado mucho interés por
los sistemas operativos, al igual que por las soluciones de hardware y
compiladores. Sin embargo, gradualmente, la desilusión se iba incrementando.
'Todo lo que nos hacían estudiar era demasiado teórico y no lo que yo
necesitaba'.
En Seattle Computer, Tim Paterson trabajó en varios proyectos, como rediseñar
memorias S-100. No obstante, las cosas empezaron a cambiar cuando 'la
promesa de la programación' acudió a un seminario sobre el chip 8086 de Intel
en julio de 1978.
'Me gané el respeto de Rod Brock e hice algunas sugerencias. Le di unas
cuantas vueltas al procesador 8086 mientras Brock me dio carta blanca. De
hecho, el primer diseño de la placa 8086 se terminó a finales de enero pero
nosotros teníamos ya el prototipo en mayo de 1979. Creamos tres placas,
aunque sin ningún vínculo que las relacionara. Existían ambos factores, tanto
errores de presentación como de diseño, pero conseguimos que dos prototipos
funcionaran'.
Por su parte, Seattle Computer se planteaba ya por aquellos años la idea de
crear su propio ordenador aunque las estrategias de negocio al respecto nunca
llegaban.
Una vez el prototipo 8085 estuvo funcionando, Seattle se acercó a Digital
Research para comprobar si podía lograr que CP/M trabajara con él. Junto a
esto, Microsoft, que se había trasladado a Seattle en enero de 1979, quería
observar si algunos de sus programas funcionaban. Y, a finales de mayo de
1979, Paterson se incorporó a Microsoft para trabajar con Bob O'Rear.
'Microsoft ya había desarrollado buenas herramientas, como un ensamblador
para usar con el PDP-10. Había unos cuantos virus pero básicamente la placa
trabajaba correctamente junto con las soluciones que se habían desarrollado
recientemente'.
En la Conferencia National Computer celebrada en Nueva York en el año 1979,
Seattle Computer fue invitado por Microsoft y Lifeboat. Estas mostraron Basic-
86, entonces el único software diseñado para el 8086. Mientras, Seattle
Computer empezaba a comercializar el producto con su placa en noviembre,
inicialmente preparado para desarrolladores de software.
En abril de 1980, Paterson empezó a trabajar por primera vez en un sistema
operativo. 'Necesitábamos una solución en Seattle Computer para nuestros
propios ordenadores y yo quería construir una, así que nos decidimos de lleno.
Además, siempre quise escribir mi propio sistema operativo. Nunca me gustó
CP/M y, de hecho, pensaba que yo podía hacerlo mucho mejor'.
Fuente: Historia y actualidad
Por Sergio Téllez Pérez 1º “A” I.T. GESTIÓN

jueves

La información más útil del boletín de La sociedad civil


Cuadro 11. La información más útil del boletín de La sociedad civil en línea
Tipo de información
Porcentaje de usuarios que la considera la más útil
Oportunidades de capacitación 66%
Llamados y convocatorias 61%
Publicaciones 56%
Noticias regionales 55%
Noticias internacionales 49%
Información sobre becas 49%
Agenda de actividades 44%
Nota: la suma supera el 100% porque los usuarios podían elegir más de una opción.
“ A través de boletines he
conseguido becas, he
conseguido financiamiento, he
viajado, he conocido a otra
gente que está trabajando en
cosas muy parecidas. Para mí
es una antena muy
importante. Hoy no podría
desarrollar mi trabajo
ignorando todo lo que se está
haciendo en otros lugares y los
boletines muchas veces
facilitan ese acceso.”
(suscriptora entrevistada)
Los lectores usan mayoritariamente la
información que se difunde en los
boletines de La sociedad civil en línea para
su propio trabajo o como información
general en su actividad.
Cuadro 12. Usos otorgados a la información del boletín de La sociedad civil
en línea
Uso Porcentaje de lectores que le otorga este uso
Uso laboral o institucional 64%
Información general 61%
Actualización profesional 47%
Para actividades educativas 31%
Búsqueda de oportunidades laborales 14%
Nota: la suma supera el 100% porque los usuarios podían elegir más de una opción.
Los lectores mencionan otros usos, destacándose la socialización de la
información que muchos usuarios emprenden: difusión a su propia red; replicación
e inclusión en otras páginas web.
Ante la pregunta sobre a qué tipo información –y en qué áreas- La sociedad civil
en línea debería prestar más atención, más de la mitad de los usuarios eligen dos tipos
de información: la relacionada con oportunidades de capacitación a distancia y la
información en cooperación internacional.
Fuente: Fondo Regional para la Innovación Digital
en América Latina y el Caribe
Las tecnologías de la información y la comunicación para la integración social en
América Latina
Informe de investigación

martes

CUADERNOS / SOCIEDAD DE LA INFORMACIÓN 5



CUADERNOS / SOCIEDAD DE LA INFORMACIÓN 5
5.1. Proyecto GRIMM
Proyecto pedagógico innovador que persigue, desde su
puesta en marcha en 1996, integrar la tecnología en las
aulas de los centros de Educación Infantil, Primaria y
Secundaria40. El proyecto GRIMM es un proyecto de la
Universidad de Barcelona y de la empresa Apple en el
que participan muy activamente colegios, instituciones
y empresas. Un grupo de trabajo formado por coordinadores
nacionales dinamiza el proyecto y coordina la
admisión y la participación de los centros. En la actualidad,
el proyecto se ha convertido en un espacio donde
maestros interesados en la educación con TIC comparten
experiencias, debates, valoraciones e investigaciones de
sus propias aulas y escuelas. El proyecto, cuyo eje es la
discusión, ha evolucionado hacia un enfoque más didáctico
y a una orientación del ordenador como herramienta
para la comunicación, la expresión y la creación, en la
que la producción digital de los niños es protagonista.
Destacan los trabajos dirigidos al lenguaje y a la cultura
audiovisual. Dentro de las aportaciones de los participantes
destaca el video digital educativo. El colegio “Erain”
ha puesto en marcha una iniciativa cuyo objetivo es la
utilización educativa del video digital41. Con este proyecto
de I+D+i, financiado por la Diputación de Guipúzcoa,
el Gobierno Vasco y el Fondo Europeo de Desarrollo Regional,
se pretende aproximar los medios audiovisuales
a los alumnos, realizar trabajos entre distintos centros
educativos y proporcionar a los docentes experiencias de
utilización del video digital en la educación. El colegio
“Erain” ha puesto en marcha un portal sobre el proyecto42
que, además de informar sobre cómo se realiza un video,
ofrece una colección de videos producidos por los alumnos
sobre contenidos tratados en clase.
Fuente: CUADERNOS / SOCIEDAD DE LA INFORMACIÓN 5
Las nuevas tecnologías en la educación
Rocío Martín-Laborda
Fundación AUNA

jueves

Sistemas Operativos Historia y Actualidad



Sistemas Operativos
Historia y Actualidad
Definición
Un sistema operativo (SO) es un conjunto de programas o software
destinado a permitir la comunicación del usuario con un ordenador y gestionar
sus recursos de manera cómoda y eficiente. Comienza a trabajar cuando se
enciende el ordenador, y gestiona el hardware de la máquina desde los niveles
más básicos.
Hoy en día un sistema operativo se puede encontrar normalmente todos los
aparatos electrónicos complejos que podamos utilizar, ya que gracias a estos
podemos entender la máquina y que ésta cumpla con sus funciones; éste es el
caso de: teléfonos móviles, reproductores de DVD, mini cadenas, auto radios, y
muchos más; incluyendo más visiblemente a los Ordenadores Personales (PC).
Otra definición
Otra definición posible y bastante aceptada define un sistema operativo como
una capa compleja entre el hardware y el usuario, concebible también como
una máquina virtual, que facilita al usuario o al programador las herramientas e
interfaces adecuadas para realizar sus tareas informáticas, abstrayéndole de los
complicados procesos necesarios para llevarlas a cabo. Por ejemplo, un usuario
normal simplemente abre los ficheros grabados en un disco, sin preocuparse
por la disposición de los bits en el medio físico, los tiempos de espera del motor
del disco, la posición de un cabezal, el acceso de otros usuarios, etc.
Aunque es un tema propenso a la discusión, algunos expertos están de acuerdo
en que un sistema operativo debe constar de, por lo menos, un conjunto de
programas similar al siguiente:
· Un compilador de algún lenguaje de programación, en Unix es de C.
· Un enlazador.
· Un ensamblador.
· Un intérprete de comandos.
· Una amplia biblioteca del lenguaje de la plataforma.
· Un kernel o núcleo.
Características
· Administración de tareas:
o Monotarea: Si solamente puede ejecutar un programa (aparte de
los procesos del propio S.O.) en un momento dado. Una vez que
empieza a funcionar un programa, continuará haciéndolo hasta su
finalización o interrupción.
o Multitarea: Si es capaz de ejecutar varios programas al mismo
tiempo. Este tipo de S.O. normalmente asigna los recursos
disponibles (CPU, memoria, periféricos) de forma alternativa a los
programas que los solicitan, de manera que el usuario percibe que
todos funcionan a la vez.
· Administración de usuarios:
o Monousuario: Si sólo permite ejecutar los programas de un
usuario al mismo tiempo.
o Multiusuario: Si permite que varios usuarios ejecuten
simultáneamente sus programas, accediendo a la vez a los
recursos del ordenador. Normalmente estos SS.OO. utilizan
métodos de protección de datos, de manera que un programa no
pueda usar o cambiar los datos de otro usuario.
· Manejo de recursos:
o Centralizado: Si permite utilizar los recursos de un solo ordenador.
o Distribuido: Si permite utilizar los recursos (memoria, CPU, disco,
periféricos...) de más de un ordenador al mismo tiempo.
· Organización interna:
o Kernel monolítico (Linux, BSD, skyOS, Windows, Syllable).
o Microkernel (BeOS, Mach, Mac OS X, newOS).
o Nanokernel (AdeOS, Eros, KeyKOS, Brix-OS).
o VOiD (unununium, TUNES, Vapour).
o Sasos (Opal, Mungi, BriX).
o VM (Merlin, Argante).
o Exokernel (MIT exokernel).
o Cache kernel (Universidad de Stanford).
Fuente: Sistemas Operativos
Historia y Actualidad
Por Sergio Téllez Pérez 1º “A” I.T. GESTIÓN

martes

Sistemas Operativos Historia y actualidad



Sistemas Operativos
Historia y actualidad
Definición
Un sistema operativo (SO) es un conjunto de programas o software
destinado a permitir la comunicación del usuario con un ordenador y gestionar
sus recursos de manera cómoda y eficiente. Comienza a trabajar cuando se
enciende el ordenador, y gestiona el hardware de la máquina desde los niveles
más básicos.
Hoy en día un sistema operativo se puede encontrar normalmente todos los
aparatos electrónicos complejos que podamos utilizar, ya que gracias a estos
podemos entender la máquina y que ésta cumpla con sus funciones; éste es el
caso de: teléfonos móviles, reproductores de DVD, mini cadenas, auto radios, y
muchos más; incluyendo más visiblemente a los Ordenadores Personales (PC).
Otra definición
Otra definición posible y bastante aceptada define un sistema operativo como
una capa compleja entre el hardware y el usuario, concebible también como
una máquina virtual, que facilita al usuario o al programador las herramientas e
interfaces adecuadas para realizar sus tareas informáticas, abstrayéndole de los
complicados procesos necesarios para llevarlas a cabo. Por ejemplo, un usuario
normal simplemente abre los ficheros grabados en un disco, sin preocuparse
por la disposición de los bits en el medio físico, los tiempos de espera del motor
del disco, la posición de un cabezal, el acceso de otros usuarios, etc.
Aunque es un tema propenso a la discusión, algunos expertos están de acuerdo
en que un sistema operativo debe constar de, por lo menos, un conjunto de
programas similar al siguiente:
· Un compilador de algún lenguaje de programación, en Unix es de C.
· Un enlazador.
· Un ensamblador.
· Un intérprete de comandos.
· Una amplia biblioteca del lenguaje de la plataforma.
· Un kernel o núcleo.
Características
· Administración de tareas:
o Monotarea: Si solamente puede ejecutar un programa (aparte de
los procesos del propio S.O.) en un momento dado. Una vez que
empieza a funcionar un programa, continuará haciéndolo hasta su
finalización o interrupción.
o Multitarea: Si es capaz de ejecutar varios programas al mismo
tiempo. Este tipo de S.O. normalmente asigna los recursos
disponibles (CPU, memoria, periféricos) de forma alternativa a los
programas que los solicitan, de manera que el usuario percibe que
todos funcionan a la vez.
· Administración de usuarios:
o Monousuario: Si sólo permite ejecutar los programas de un
usuario al mismo tiempo.
o Multiusuario: Si permite que varios usuarios ejecuten
simultáneamente sus programas, accediendo a la vez a los
recursos del ordenador. Normalmente estos SS.OO. utilizan
métodos de protección de datos, de manera que un programa no
pueda usar o cambiar los datos de otro usuario.
· Manejo de recursos:
o Centralizado: Si permite utilizar los recursos de un solo ordenador.
o Distribuido: Si permite utilizar los recursos (memoria, CPU, disco,
periféricos...) de más de un ordenador al mismo tiempo.
· Organización interna:
o Kernel monolítico (Linux, BSD, skyOS, Windows, Syllable).
o Microkernel (BeOS, Mach, Mac OS X, newOS).
o Nanokernel (AdeOS, Eros, KeyKOS, Brix-OS).
o VOiD (unununium, TUNES, Vapour).
o Sasos (Opal, Mungi, BriX).
o VM (Merlin, Argante).
o Exokernel (MIT exokernel).
o Cache kernel (Universidad de Stanford).
Fuente: Sistemas Operativos
Historia y actualidad
Por Sergio Téllez Pérez 1º “A” I.T. GESTIÓN

jueves

La burbuja .com



La burbuja .com
El repentino bajo precio para llegar a millones de personas en el mundo, y la posibilidad de vender y saber de la gente a que se vendía en el mismo momento, prometió cambiar el dogma de negocio establecido en la publicidad, las ventas por correo, y muchas más áreas. La web fue una nueva aplicación rompedora—podía juntar compradores y vendedores sin relación previa de manera fluida y con bajo coste. Los visionarios alrededor del mundo desarrollaron nuevos modelos de negocio, y se dirigieron a su capitalista de riesgo más cercano. Por supuesto una proporción de los nuevos empresarios tenían realmente talento en la administración de empresas y las ventas y crecieron; pero la mayoría era simplemente gente con ideas, y no gestionaron el influjo de capital prudentemente. Además, muchos planes de negocios .com estaban fundamentados sobre el supuesto que usando Internet, evitarían los canales de distribución de los negocios existentes y por tanto no tendrían que competir con ellos; cuando los negocios establecidos con fuertes marcas desarrollaron su propia presencia en Internet, estas esperanzas fueron destrozadas, y los recién llegados quedaron abandonados en su negocio intentando romper los mercados dominados por negocios más grandes y establecidos. Muchos no tuvieron la capacidad de hacerlo.
La burbuja .com estalló el 10 de marzo de 2000, cuando el índice NASDAQ compuesto fuertemente por valores tecnológicos hizo su máximo en 5048,62 (máximo intradía 5132,52), más del doble de su valor un año anterior. Para 2001, la deflación de la burbuja estaba yendo a toda velocidad. La mayoría de las .com había cerrado el negocio, después de haber quemado todo su capital riesgo, a menudo sin ni siquiera tener un beneficio bruto.
Fuente: Tema 1: Historia y evolución de Internet
Curs d’estiu Com utilitzar Internet amb confiança i seguretat

martes

Las oportunidades de capacitación



Las oportunidades de capacitación son la opción o servicio de la comunidad
virtual La sociedad civil en Línea más apreciada, seguida de la información sobre
llamados y convocatorias (concursos, proyectos).
Cuadro 11. La información más útil del boletín de La sociedad civil en línea
Tipo de información
Porcentaje de usuarios que la
considera la más útil
Oportunidades de capacitación 66%
Llamados y convocatorias 61%
Publicaciones 56%
Noticias regionales 55%
Noticias internacionales 49%
Información sobre becas 49%
Agenda de actividades 44%
Nota: la suma supera el 100% porque los usuarios podían elegir más de una opción.
“ A través de boletines he
conseguido becas, he
conseguido financiamiento, he
viajado, he conocido a otra
gente que está trabajando en
cosas muy parecidas. Para mí
es una antena muy
importante. Hoy no podría
desarrollar mi trabajo
ignorando todo lo que se está
haciendo en otros lugares y los
boletines muchas veces
facilitan ese acceso.”
(suscriptora entrevistada)
Los lectores usan mayoritariamente la
información que se difunde en los
boletines de La sociedad civil en línea para
su propio trabajo o como información
general en su actividad.
Cuadro 12. Usos otorgados a la información del boletín de La sociedad civil
en línea
Uso Porcentaje de lectores que le
otorga este uso
Uso laboral o institucional 64%
Información general 61%
Actualización profesional 47%
Para actividades educativas 31%
Búsqueda de oportunidades laborales 14%
Nota: la suma supera el 100% porque los usuarios podían elegir más de una opción.
Los lectores mencionan otros usos, destacándose la socialización de la
información que muchos usuarios emprenden: difusión a su propia red; replicación
e inclusión en otras páginas Web.
Ante la pregunta sobre a qué tipo información –y en qué áreas- La sociedad civil
en línea debería prestar más atención, más de la mitad de los usuarios eligen dos tipos
de información: la relacionada con oportunidades de capacitación a distancia y la
información en cooperación internacional.
Fuente: Las tecnologías de la información
y la comunicación para la integración social en
América Latina
Informe de investigación
Proyecto: “Nuevas tecnologías para la integración social en América Latina”
Fondo Regional para la Innovación Digital
en América Latina y el Caribe

jueves

Historia de Internet El buscador



Historia de Internet
El buscador
Incluso antes de la World Wide Web, hubo buscadores que intentaron organizar Internet. El primero de estos fue Archie de la Universidad McGill en 1990, seguido en 1991 por WAIS y Gopher. Los tres sistemas fueron anteriores a la invención de la World Wide Web pero todos continuaron indexando la Web y el resto de Internet durante varios años después de que apareciera la Web. A 2006, aún hay servidores Gopher, aunque hay muchos más servidores web.
A medida que la Web creció, se crearon los buscadores y los directorios Web para localizar las páginas en la Web y permitir a las personas encontrar cosas. El primer buscador Web completamente de texto fue WebCrawler en 1994. Antes de WebCrawler, sólo se podían buscar títulos de páginas web. Otro de los primeros buscadores, Lycos, fue creado en 1993 como un proyecto universitario, y fue el primero en conseguir éxito comercial. Durantes los últimos años de 1990, tanto los directorios Web como los buscadores Web eran populares—Yahoo! (fundado en 1995) y Altavista (fundado en 1995) fueron los respectivos líderes de la industria.
Por agosto de 2001, el modelo de directorios había comenzado a ceder ante el de buscadores, mostrando el surgimiento de Google (fundado en 1998), que había desarrollado nuevos enfoques para el ordenamiento por relevancia. El modelo de directorios, aunque aún está disponible comúnmente, es menos utilizado que los buscadores.
El tamaño de las bases de datos, que había sido una característica de marketing significativa durante los primeros años de la década de 2000, fue igualmente sustituido por el énfasis en el ordenamiento por relevancia, los métodos con los cuales los buscadores intentan colocar los mejores resultados primero. El ordenamiento por relevancia se convirtió por primera vez en una cuestión importante alrededor de 1996, cuando se hizo evidente que no era práctico revisar listas completas de resultados. Por consiguiente, los algoritmos para el ordenamiento por relevancia se han ido mejorando continuamente. El método PageRank de Google para ordenar los resultados ha recibido la mayoría de la prensa, pero todos los principales buscadores refinan continuamente sus metodologías de ordenamiento con el objetivo de mejorar el orden de los resultados. En 2006, la posición en los buscadores es más importante que nunca, tanto que la industria ha desarrollado ("posicionadores en buscadores") para ayudar a los desarrolladores web a mejorar su posición en el buscador, y se ha desarrollado un cuerpo entero de jurisprudencia alrededor de cuestiones que afectan al posicionamiento en los buscadores, como el uso de marcas registradas en metatags. La venta de posiciones en buscadores por algunos buscadores ha creado también controversia entre bibliotecarios y defensores de los consumidores.
Fuente: Curs d’estiu Com utilitzar Internet amb confiança i seguretat
Universidad Pompeu Fabra

martes

Acceso El acceso a Internet



Acceso
El acceso a Internet en el presente está siendo ofrecido a los consumidores por diferentes medios. Uno de estos es la línea telefónica común, otro es a través de la señal de televisión por cable y la otra es la línea telefónica DSL. No todas estas tecnologías son ofrecidas en todas las regiones y los costos entre ellas varían mucho. Por ejemplo, en algunos países de Europa se ofrece acceso a Internet gratis. Mientras que en otras regiones del mundo, conseguir una conexión de acceso a Internet puede llegar a ser difícil o extremadamente caro. En la sección 3 se analizan con detalle la situación en Argentina respecto del acceso de la población a la Internet.
PCs y otros Information Appliances
Finalmente, una necesidad básica para acceder a Internet es tener una PC para lograr el acceso. El tener una PC sigue siendo una barrera para mucha gente. Después de todo, sigue siendo una compra de casi US$ 1.000 en Argentina, superior a un salario mensual promedio.
Otra forma alternativa de describir y mirar el sector TIC es a través de una estructura natural o jerárquica, trazada directamente sobre cómo los negocios generan ingresos (The Internet Economic Indicator, 1999).
En principio, se podría dividir a las TICs en dos grandes grupos. Por un lado, la Infraestructura, que se compone de otros dos grandes grupos: la Infraestructura de Internet y la Infraestructura de las Aplicaciones de Internet. Por otro lado, la Actividad Económica, que comprende a los Intermediarios Electrónicos y a las Transacciones Online.
III. La Infraestructura
La Infraestructura de Internet
El crecimiento de la economía digital depende críticamente de la presencia de redes electrónicas inteligentes y muy rápidas, y de la capacidad de compartir todo tipo de contenido entre todos los agentes de la economía. Consecuentemente, la infraestructura de Internet incluye a las empresas que manufacturan o proveen productos y servicios que preparan la infraestructura de las redes de Internet. Estas son las empresas que proveen telecomunicaciones, fiber backbones y acceso, todos necesarios para el crecimiento de Internet.
La Infraestructura de las Aplicaciones de Internet
Las aplicaciones son los productos y servicios que hacen posible que la infraestructura de la red de protocolos de Internet sea tecnológicamente viable. Además de las aplicaciones de software, se incluye el capital humano involucrado en el despliegue de las aplicaciones de E-commerce y E-business. Como ejemplo, los diseñadores y los consultores Web quedan incorporados en esta subdivisión.
IV. La Actividad Económica
Los Intermediarios Electrónicos
Los intermediarios de Internet incrementan la eficiencia de los mercados electrónicos facilitando el encuentro y la interacción entre los compradores y los vendedores. Su rol principal es el de brindar información y conocimiento intensivo.
En el mundo físico, los intermediarios son los distribuidores y los vendedores, cuya principal función es la de incrementar la eficiencia de la distribución y la de reducir los costos a los consumidores instalándose más cerca de los centros de consumo. En el caso de Internet, la proximidad no es un tema, pero sí lo es la búsqueda online, la evaluación, coordinación, seguridad del vendedor y la calidad de los productos/servicios.
Los intermediarios de Internet juegan un rol central en cerrar las brechas de información y conocimiento, que de otra forma perturbarían el funcionamiento de Internet.
Fuente: .com.ar
La Revolución de las Tecnologías de la
Informática y la Comunicación
en Argentina

jueves

Historia de Internet Los expertos generalmente están de acuerdo,



Historia de Internet
Los expertos generalmente están de acuerdo, sin embargo, que el punto decisivo para la World Wide Web comenzó con la introducción de Mosaic en 1993, un navegador web con interfaz gráfica desarrollado por un equipo en el National Center for Supercomputing Applications en la Universidad de Illinois en Urbana-Champaign (NCSA-UIUC), liderado por Marc Andreessen. Los fondos para Mosaic vinieron desde la High-Performance Computing and Communications Initiative, el programa de ayudas High Performance Computing and Communication Act of 1991 iniciado por el entonces senador Al Gore. De hecho, la interfaz gráfica de Mosaic pronto se hizo
más popular que Gopher, que en ese momento estaba principalmente basado en texto, y la WWW se convirtió en la interfaz preferida para acceder a Internet.
Mosaic fue finalmente suplantado en 1994 por Netscape Navigator de Andreessen, que reemplazó a Mosaic como el navegador Web más popular en el mundo. La competencia de Internet Explorer y una variedad de otros navegadores casi lo ha sustituido completamente. Otro acontecimiento importante celebrado el 11 de enero de 1994, fue The Superhighway Summit en la Sala Royce de la UCLA. Esta fue la "primera conferencia pública que agrupó a todos los principales líderes de la industria, el gobierno y académicos en el campo y también comenzó el diálogo nacional sobre la Autopista de la información y sus implicaciones.
Fuente: Curs d’estiu Com utilitzar Internet amb confiança i seguretat

martes

TIC III. Familias



TIC III. Familias
 Las familias tienden a necesitar un régimen de TICs de otro tipo que los previamente mencionados. Para empezar, no usan grandes equipos de hardware, solamente PCs. Segundo, el software que utilizan es muchas veces de entretenimiento tanto como de productividad. En general no utilizan muchos servicios como el soporte técnico que necesitan las grandes empresas. Pero, al igual que las empresas y el gobierno, consumen acceso a Internet. Internet La Internet está cambiando la composición del sector TIC, de alguna manera oscureciendo los bordes del sector. Un tema central en esto es la convergencia de varias tecnologías e industrias. I. Convergencia Internet está basada en un protocolo de comunicación que se denomina TCP/IP. Una característica de este protocolo es que es genérico. Es decir, encima de él se pueden armar protocolos más complejos en los cuales transmitir cualquier señal o archivo de carácter digital. Uno de los más conocidos de estos protocolos es el HTTP, que se utiliza para transmitir páginas HTML, con sus respectivas imágenes y texto. Pero también hay protocolos de email, audio en tiempo real, video en tiempo real, telefonía, etc. A diferencia de las señales telefónicas o televisivas, el protocolo TCP/IP funciona con una transmisión a paquetes, lo cual lo hace muy eficiente1. En parte por estas razones se cree que la telefonía se va a convertir, y se está convirtiendo, a una transmisión por Internet utilizando el protocolo TCP/IP. Lo mismo quizás pase con la televisión y los diarios y revistas. Es decir, se vislumbra que en unos pocos años, cada casa tendrá una sola conexión con alto ancho de banda a una línea Internet, y por ella pasarán las señales de video, audio y texto que hoy son transmitidas por líneas de televisión por cable, líneas de teléfono y publicadas en diarios y revistas. Esta convergencia que se está produciendo involucra tres industrias: (1) Information Technology, (2) Telefonía y Televisión por Cable, y (3) Empresas de Contenidos, como son los medios. II. Ofertas de Internet En el presente, hay una serie de ofertas en el sector Internet, de las cuales se podrían distinguir las siguientes: Sitios de Contenido Existe una cantidad de sitios de Internet que proveen contenido al usuario. Entre estos sitios se pueden incluir los portales como Yahoo o ElSitio, las empresas de noticias y entretenimientos como son LaNacion.com, y finalmente el gobierno, con sitios como www.presidencia.gov.ar. La característica principal de estos sitios es que el usuario puede acceder a la información que ellos poseen simplemente con una computadora y una línea de acceso a Internet. Las empresas de contenido en Internet hacen dinero vendiendo publicidad, la cual aparece comúnmente en forma de banners -carteles rectangulares en la pantalla. Sitios de Comercio Electrónico Existe una cantidad de sitios que venden productos por Internet. Dos de estos sitios con más renombre son Amazon (venta de libros) y eBay (remates en red). El comercio electrónico está cambiando la manera de funcionar del comercio porque estos sitios pueden ofrecer miles de productos, sin altos costos por local de venta, a consumidores más allá de su localidad geográfica. Al tener menores costos de comercialización, estos negocios pueden ofrecer un menor precio al consumidor, y así arrebatarle el negocio a los negocios con comercialización a la calle. Cabe destacar que lo que se conoce típicamente como comercio electrónico es solo una parte de este sector, la parte de business-to-consumer. Existe también un número de negocios de comercio electrónico que facilita el comercio entre empresas (businessto- business). El trabajo tiene una sección especial dedicada al comercio electrónico. Fuente: .com.ar La Revolución de las Tecnologías de la Informática y la Comunicación en Argentina Dirección del Proyecto: Gabriel Casaburi Guillermo Mondino

jueves

El boletín electrónico



El boletín electrónico
 Resulta interesante estudiar esa diversidad de razones, que por su riqueza e interés presentamos en forma completa como anexo 6. El análisis de las respuestas y su agrupación matricial revela claramente cinco grandes grupos de razones por los que los usuarios aprecian la herramienta del boletín electrónico de La sociedad civil en Línea y que los llevó a suscribirse y mantenerse interesados: i. Actividad: los encuestados tienen distintos grados de vinculación o interés profesional y laboral hacia los temas relacionados a la sociedad civil (por su área de trabajo, su vinculación académica, su tema de tesis o estudios, etc.); ii. Interés: los usuarios tienen un interés particular en los temas tratados y materiales ofrecidos, en los cursos y en la información sobre actividades u oportunidades; iii. Interactuación: Se da cuenta de la necesidad e interés de interactuar con pares (formación de redes, conocimiento de otras visiones, vínculos con otras organizaciones y otras personas); iv. Educación y actualización: Muchos usuarios informan de la necesidad de mantenerse actualizados y de dotarse de medios de educación permanente. v. Opinión: la valoración favorable sobre los contenidos del boletín, mencionándose que la información es actualizada, útil, valiosa, especializada y orientadora. La inmensa mayoría de los receptores encuestados tiene una opinión muy favorable del boletín electrónico de La sociedad civil en línea, con más del 90% de las personas que lo ubican en “muy bueno” o “bueno”. El 95% de las respuestas indica que se está satisfecho con la periodicidad del boletín y el 85% lo está con su extensión. El diseño gráfico es valorado como bueno o muy bueno por casi el 90% de los lectores y solamente un 5% manifiesta tener tiene problemas de visualización en su computadora para la lectura del boletín. Fuente: Fondo Regional para la Innovación Digital en América Latina y el Caribe Las tecnologías de la información y la comunicación para la integración social en América Latina

martes

Una biblioteca mundial:



Una biblioteca mundial:
 WWW A medida que Internet creció durante los años 1980 y principios de los años 1990, mucha gente se dio cuenta de la creciente necesidad de poder encontrar y organizar ficheros e información. Los proyectos como Gopher, WAIS, y la FTP Archive list intentaron crear maneras de organizar datos distribuidos. Desafortunadamente, estos proyectos se quedaron cortos en poder alojar todos los tipos de datos existentes y en poder crecer sin cuellos de botella. Uno de los paradigmas de interfaz de usuario más prometedores durante este periodo fue el hipertexto. La tecnología había sido inspirada por el "Memex. Muchos pequeños sistemas de hipertexto propios se habían creado anteriormente, como el HyperCard de Apple Computer. En 1991, Tim Berners-Lee fue el primero en desarrollar una implementación basada en red de concepto de hipertexto. Esto fue después de que Berners-Lee hubiera propuesto repetidamente su idea a las comunidades de hipertexto e Internet en varias conferencias pero nadie lo implementaría para él. Trabajando en el CERN, Berners-Lee quería una manera de compartir información sobre su investigación. Liberando su implementación para el uso público, se aseguró que la tecnología se extendería. Posteriormente, Gopher se convirtió en la primera interfaz de hipertexto comúnmente utilizada en Internet. Aunque las opciones del menú Gopher eran ejemplos de hipertexto, éstas no fueron comúnmente percibidas de esta manera. Unos de los primeros populares navegadores Web, modelados después de HyperCard, fue ViolaWWW.
Fuente: Curs d’estiu Com utilitzar Internet amb confiança i seguretat

jueves

EJEMPLOS DE BUENAS PRÁCTICAS EN LA EDUCACIÓN CON TIC



CUADERNOS / SOCIEDAD DE LA INFORMACIÓN 5 5. EJEMPLOS DE BUENAS PRÁCTICAS EN LA EDUCACIÓN CON TIC Compartir experiencias e intercambiar prácticas innovadoras entre docentes y centros escolares parece la vía más apropiada para seguir avanzando hacia la “informática en el aula”. Este camino se presenta como el más acertado para que tanto las Administraciones como la Comunidad Educativa en su conjunto conozcan las posibilidades y limitaciones de las nuevas herramientas tecnológicas en la educación. Un estudio realizado en 2002 por el Centro de Investigación e Innovación Educativa (CERI) de la OCDE34, reconoce el poder de las TIC para facilitar cambios importantes en la enseñanza. En este sentido, hay ejemplos de centros escolares en todo el mundo que han apostado por incorporar las TIC de forma eficaz no sólo en su organización sino también en los métodos docentes del aula. En la mayoría de los países de la OCDE (Japón, Israel, EEUU, Canadá, Corea, Reino Unido, Irlanda, Francia, etc.) existen colegios que han avanzado mucho en la incorporación de las TIC a la enseñanza. El proyecto intercultural PIEDRA (Project Interculturel en Education et Développement de Réseaux), desarrollado por centros portugueses, franceses y españoles, y el proyecto francés “La main à la pâte” (Manos a la obra) han sido ejemplos de ello. Otro ejemplo signifi cativo ha sido el programa internacional GLOBE (Global Learning and Observations to Benefi t the Environment Program35), que coordina en España desde 1998 el Centro de Investigación y Documentación Educativa (CIDE) del Ministerio de Educación36, en el que, a través de Internet, se unen estudiantes, docentes e investigadores de ciencia y educación ambiental de los 107 países que colaboran en la actualidad. Este programa ha facilitado la transferencia de conocimientos y la colaboración científica, a escala internacional, proporcionando una visión universal de los problemas ambientales actuales. En Europa existen iniciativas muy interesantes, muchas de ellas amparadas por el Programa “La Escuela de Mañana” 37 de la Dirección General de las Tecnologías y la Sociedad de la Información de la Comisión Europea y de la Red Europea de Escuelas Innovadoras38. Entre estas iniciativas se pueden citar algunas como “School +”, “5D” o “EUN-Valnet”, en las que las TIC tienen mucha importancia. En particular, el proyecto de innovación de la red escolar europea -EUN incluye algunos proyectos como el OASIS39 (Open Architecture and Schools in So Society) arquitectura abierta en entornos escolares, que ha resultado un proyecto muy complejo al ser tanto pedagógicamente innovador como técnicamente muy avanzado. El proyecto, cuyo fin ha consistido en mantener al sistema público educativo en la vanguardia de la educación juvenil, ha concluido con una serie de recomendaciones o soluciones que hacen compatible la tecnología con los enfoques pedagógicos más modernos. Entre estas soluciones se encuentran los servidores escolares y de zona, los marcos de interoperabilidad escolar y las tecnologías inalámbricas en el aula. También destaca el proyecto “Valnet” que pretende desarrollar un marco de validación del funcionamiento del trabajo tecnológico en los colegios. En nuestro país también hay colegios que realizan estos cambios y que marcan el camino para otros centros educativos. Por su aportación innovadora, llaman la atención algunos proyectos: Fuente: Las nuevas tecnologías en la educación Rocío Martín-Laborda Fundación AUNA

Diccionario de la Ciencia y la Tecnología - CENSO

 Diccionario de la Ciencia y la Tecnología CENSO. Estudio (enumeración-inventario) de todos los miembros de una población. De Landsheere. / ...