domingo, 1 de agosto de 2010

Videos sobre la exposición: Administración del Procesador

Debido a que no se podia cargar el video entero en youtube, el video se ah dividido en 3 partes.










sábado, 17 de julio de 2010

Tecnologia 4G

Si se comparara los dispositivos electronico de ahora con los de antes, los de ahora parecieran como si fueran imposibles de crear, y es la verdad y todavia falta mas, la tecnologia 4G no es mas que acceso a la red en fracciones de segundos super minimas, tanto es el ejemplo que podrias estar viendo un juego de pelota, descargando musica y todo seguiria normal en el movil.

Para saber como trabja 4G, la respuesta es simple OFDM (la multiplexación de división de frecuencia ortogonal.) Traducción: la señal es dividida en corrientes de datos paralelas transfirió subcanales de radio situados juntos, para ser vuelto a montar en el otro extremo. El acercamiento ya es usado en las ciertas clases de WiMAX y sistemas Wi-Fi, que le dejan conectarse a la red en lugares publicos a una velocidad razonable.

¿Qué tan rápido es 4G? Por lo general la velocidad máxima es como 100 megabits por segundo downstream y 50 megabytees por segundo upstream. Por la comparación, una señal de HDTV consume aproximadamente 25 megabits por segundo.

Pero 100 megabits y 50 megabits por segundo son números puramente teóricos, advierte Fred Campbell, presidente de la Asociación de Comunicaciones Inalámbrica Internacional (WCAI) en Washington DC. " En el verdadero mundo usted no alcanza velocidades máximas, porque en el verdadero mundo usted tiene árboles y edificios y se distancia la atenuación y receptores móviles y limitaciones de amplitud de banda, ".

Lo cierte es que se dice que al menos en Estado Unidos se vendria introduciendo de lleno la tecnologia 4G a finales de este año y a comienzos del proximo, cuando esto pase habra acceso a la red a una velocidad que habra que usarla para saber como se siente.

(Nota: uno de los unicos celulares con 4G hasta ahora es el HTC Android de Sprint)




Sustraido del texto de Lamont Wood de Tech News Daily
http://www.technewsdaily.com/how-4g-works-100128-0121/

ALGUNOS DE LOS PRINCIPALES SISTEMAS OPERATIVOS

Mac OS

Mac OS es el nombre del sistema operativo creado por Apple para su línea de computadoras Macintosh. Es conocido por haber sido el primer sistema dirigido al gran público en contar con una interfaz gráfica compuesta por la interacción del mouse con ventanas, Icono y menús.

Apple quitó importancia de forma deliberada a la existencia del sistema operativo en los primeros años de su línea Macintosh procurando que la máquina resultara más agradable al usuario, diferenciándolo de otros sistemas contemporáneos, como MS-DOS, que eran un desafío técnico. El equipo de desarrollo del Mac OS original incluía a Bill Atkinson, Jef Raskin y Andy Hertzfeld.

Esta fue la base del Mac OS clásico, desarrollado íntegramente por Apple, cuya primera versión vio la luz en 1984. Su desarrollo se extendería en un modelo progresivo hasta la versión 9 del sistema, lanzada en 1999. A partir de Mac OS X, el sistema es un derivado de Unix que mantiene en su interfaz gráfica muchos elementos de las versiones anteriores.

Hay una gran variedad de puntos de vista sobre cómo fue desarrollado el Mac OS original y dónde se originaron las ideas subyacentes. Mientras la conexión entre el proyecto Macintosh y el proyecto Alto de Xerox PARC ha sido establecido por documentos históricos, las contribuciones iniciales del Sketchpad de Ivan Sutherland y el On-Line System de Doug Engelbart también fueron significativa.

Microsoft Windows

Es una serie de sistemas operativos desarrollados por Microsoft desde 1981, año en que el proyecto se denominaba "Interface Manager".

Anunciado en 1983, Microsoft comercializó por primera vez el entorno operativo denominado Windows en noviembre de 1985 como complemento para MS-DOS, en respuesta al creciente interés del mercado en una interfaz gráfica de usuario (GUI). Microsoft Windows llegó a dominar el mercado de ordenadores personales del mundo, superando a Mac OS, el cual había sido introducido previamente a Windows. En octubre de 2009, Windows tenía aproximadamente el 91% de la cuota de mercado de sistemas operativos en equipos cliente que acceden a Internet. La versiones más recientes de Windows son Windows 7 para equipos de escritorio, Windows Server 2008 R2 para servidores y Windows Mobile 6.5 para dispositivo móviles.

GNU/Linux

GNU/Linux es uno de los términos empleados para referirse a la combinación del núcleo o kernel libre similar a Unix denominado Linux, que es usado con herramientas de sistema GNU. Su desarrollo es uno de los ejemplos más prominentes de software libre; todo su código fuente puede ser utilizado, modificado y redistribuido libremente por cualquiera bajo los términos de la GPL (Licencia Pública General de GNU) y otra serie de licencias libres.

A pesar de que Linux (núcleo) es, en sentido estricto, el sistema operativo, parte fundamental de la interacción entre el núcleo y el usuario (o los programas de aplicación) se maneja usualmente con las herramientas del proyecto GNU o de otros proyectos como GNOME. Sin embargo, una parte significativa de la comunidad, así como muchos medios generales y especializados, prefieren utilizar el término Linux para referirse a la unión de ambos proyectos.

Unix

Unix (registrado oficialmente como UNIX®) es un sistema operativo portable, multitarea y multiusuario; desarrollado, en principio, en 1969 por un grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran Ken Thompson, Dennis Ritchie y Douglas McIlroy.

Hasta 2009, el propietario de la marca UNIX® fue The Open Group, un consorcio de normalización industrial. A partir de marzo de 2010 y tras una larga batalla legal, esta ha pasado nuevamente a ser propiedad de Novell, Inc. Sólo los sistemas totalmente compatibles y que se encuentran certificados por la especificación Single UNIX Specification pueden ser denominados "UNIX®" (otros reciben la denominación "similar a un sistema Unix" o "similar a Unix"). En ocasiones, suele usarse el término "Unix tradicional" para referirse a Unix o a un sistema operativo que cuenta con las características de UNIX Versión 7 o UNIX System V.

Ubuntu

Ubuntu es una distribución Linux basada en Debian GNU/Linux que proporciona un sistema operativo actualizado y estable para el usuario medio, con un fuerte enfoque en la facilidad de uso y de instalación del sistema. Al igual que otras distribuciones se compone de múltiples paquetes de software normalmente distribuidos bajo una licencia libre o de código abierto.

Está patrocinado por Canonical Ltd., una compañía británica propiedad del empresario sudafricano Mark Shuttleworth que en vez de vender la distribución con fines lucrativos, se financia por medio de servicios vinculados al sistema operativo y vendiendo soporte técnico. Además, al mantenerlo libre y gratuito, la empresa es capaz de aprovechar los desarrolladores de la comunidad en mejorar los componentes de su sistema operativo. Canonical también apoya y proporciona soporte para cuatro derivaciones de Ubuntu: Kubuntu, Xubuntu, Edubuntu y la versión de Ubuntu orientada a servidores ("Ubuntu Server Edition").

Cada seis meses se publica una nueva versión de Ubuntu la cual recibe soporte por parte de Canonical, durante dieciocho meses, por medio de actualizaciones de seguridad, parches para bugs críticos y actualizaciones menores de programas. Las versiones LTS (Long Term Support), que se liberan cada dos años, reciben soporte durante tres años en los sistemas de escritorio y cinco para la edición orientada a servidores.

SISTEMAS DE ARCHIVOS

(File System). En computación, un sistema de archivos es un método para el almacenamiento y organización de archivos de computadora y los datos que estos contienen, para hacer más fácil la tarea encontrarlos y accederlos. Los sistemas de archivos son usados en dispositivos de almacenamiento como discos duros y CD-ROM e involucran el mantenimiento de la localización física de los archivos.

Más formalmente, un sistema de archivos es un conjunto de tipo de datos abstractos que son implementados para el almacenamiento, la organización jerárquica, la manipulación, el acceso, el direccionamiento y la recuperación de datos. Los sistemas de archivos comparten mucho en común con la tecnología de las bases de datos.

En general, los sistemas operativos tienen su propio sistema de archivos. En ellos, los sistemas de archivos pueden ser representados de forma textual (ej.: el shell de DOS) o gráficamente (ej.: Explorador de archivos en Windows) utilizando un gestor de archivos.

El software del sistema de archivos se encarga de organizar los archivos (que suelen estar segmentados físicamente en pequeños bloques de pocos bytes) y directorios, manteniendo un registro de qué bloques pertenecen a qué archivos, qué bloques no se han utilizado y las direcciones físicas de cada bloque.

Los sistemas de archivos pueden ser clasificados en tres categorías: sistemas de archivo de disco, sistemas de archivos de red y sistemas de archivos de propósito especial.

Ejemplos de sistemas de archivos son: FAT, UMSDOS, NTFS, UDF, ext2, ext3, ext4, ReiserFS, XFS, etc.

martes, 6 de julio de 2010

MAS INFO. *

Sección crítica

Se denomina sección crítica, en programación concurrente, a la porción de código de un programa de computador en la cual se accede a un recurso compartido (estructura de datos o dispositivo) que no debe ser accedido por más de un hilo en ejecución. La sección crítica por lo general termina en un tiempo determinado y el hilo, proceso o tarea sólo tendrá que esperar un período determinado de tiempo para entrar. Se necesita un mecanismo de sincronización en la entrada y salida de la sección crítica para asegurar la utilización en exclusiva del recurso, por ejemplo un semáforo.

Sincronización y Comunicación entre procesos

La comunicación entre procesos: necesaria si se desea que varios procesos puedan colaborar para realizar una misma tarea. Sincronización funcionamiento coordinado en la resolución de una tarea encomendada.

El SO ofrece mecanismos básicos de comunicación, que permiten transferir cadenas de bytes. Deben ser los procesos que se comunican quienes interpreten el significado de las cadenas transferidas para su labor coordinada.
Los mecanismos de comunicación y sincronización son dinámicos. Es decir, cuando se necesita un mecanismo de este estilo, se crea, usa y destruye, de forma que no se establezca de forma definitiva ningún mecanismo de comunicación, ya que ellos podrían producir efectos indeseados. Es decir, la comunicación es algo puntual.

Código abierto (Open Source)

Código abierto es el término con el que se conoce al software distribuido y desarrollado libremente. El código abierto tiene un punto de vista más orientado a los beneficios prácticos de compartir el código que a las cuestiones morales y/o filosóficas las cuales destacan en el llamado software libre.

Su uso nació por primera vez en 1998 de la mano de algunos usuarios de la comunidad del software libre, tratando de usarlo como reemplazo al ambiguo nombre original en inglés del software libre (free software). Free en inglés significa dos cosas distintas dependiendo del contexto: gratuidad y libertad. Lo cual implica, para el caso que nos ocupa, "software que podemos leer, modificar y redistribuir gratuitamente" (software gratuito) y, además, software libre, según la acepción española de libertad.

Sobre BSC (Centro Nacional de Supercomputación)

A principios de 2004 el Ministerio de educación y ciencias (el Gobierno español), Generalitat de Catalunya (el Gobierno local catalán) y la Universidad Técnica de Cataluña (UPC) tomó la iniciativa de crear un Centro de Supercomputing Nacional en Barcelona. BSC-CNS (Barcelona Supercomputing el Centro - Centro Nacional de Supercomputación) es la Facilidad Nacional Supercomputing en España y oficialmente fue constituido en abril de 2005.

BSC-CNS maneja MareNostrum, uno de los superordenadores más poderosos en Europa, localizada en el Torre Girona la capilla. La misión de BSC-CNS es de investigar, desarrollar y manejar la tecnología de la información para facilitar el progreso científico. Con este objetivo, la dedicación especial ha sido aficionada áreas como Ciencias Computacionales, Ciencias de Vida y Tierra Ciencias.

Todas estas actividades son complementarias el uno al otro y muy fuerte relacionadas. De este modo, un lazo multidisciplinar es instalado: nuestra exposición a industrial y prácticas de académico de ciencia de no ordenador mejora nuestra comprensión de las necesidades y nos ayuda enfocando nuestra investigación fundamental hacia el mejoramiento de aquellas prácticas.

El resultado es muy positivo ambos para nuestro trabajo de investigación así como para mejorar el modo que atendemos nuestra sociedad.

sábado, 3 de julio de 2010

INTERBLOQUEOS

Definiciones Previas

Cuando un proceso de un sistema de multiprogramación espera en balde a que se presente un evento específico, se dice que se encuentra en un estado de interbloqueo o bloqueo mutuo. Los procesos que pueden encontrase en esta situación pueden ser uno o varios.
En los sistemas de multiprogramación, compartir recursos es uno de los principales objetivos del sistema operativo. Cuando se comparten recursos entre una población de usuarios o procesos, cada uno de los cuales mantiene un control exclusivo sobre ciertos recursos asignados a él, es posible que se produzcan bloqueos mutuos que impedirán la terminación de algunos de los procesos del sistema.

Un problema Al fin: el aplazamiento indefinido

En cualquier sistema que mantenga los procesos en espera mientras se les asigna un recurso o se toman decisiones de planificación, la programación de un proceso puede postergarse indefinidamente mientras otro recibe la atención del sistema. Tal situación se conoce con varios nombres, entre los que se incluyen aplazamiento indefinido, bloqueo indefinido e inanición, y puede resultar tan peligrosa como el interbloqueo.

Casos de Interbloqueos

El caso más simple de interbloqueo sería el de un sólo proceso que espera la ocurrencia de un evento y, sin embargo, el sistema no incluye la posibilidad de señalar dicha ocurrencia. Es muy difícil detectar los bloqueos mutuos de esta naturaleza. La mayor parte de los bloqueos mutuos implican una competencia entre varios procesos por varios recursos.

Condiciones Necesarias para Producir un Interbloqueo

Coffman, Elphick y Shoshani establecen que deben darse las siguientes cuatro condiciones necesarias para que ocurra un bloqueo mutuo.

• Condición de exclusión mutua : los procesos exigen un control exclusivo de los recursos que necesitan.

• Condición de espera : los procesos mantienen la posesión de los recursos ya asignados a ellos mientras esperan recursos adicionales.

• Condición de no apropiación : los recursos no pueden arrebatarse a los procesos a los cuales están asignados hasta que termine su utilización.

• Condición de espera circular : existe una cadena circular de procesos en la que cada proceso tiene uno o más recursos que son requeridos por el siguiente proceso en la cadena.

Como dichas condiciones son necesarias para que se presente un interbloqueo, la existencia de un bloqueo mutuo implica que se han dado todas y cada una de las cuatro condiciones. Como se verá más adelante, tener en mente semejante observación será de gran ayuda para desarrollar esquemas que eviten los interbloqueos.

Estrategias para Resolver Interbloqueos

Los resultados de la investigación sobre el bloqueo mutuo han sido satisfactorios en cuanto a que se han encontrado métodos limpios y rápidos para manejar la mayoría de los problemas más comunes. Existen cuatro áreas de interés relacionadas con los interbloqueos que pueden resumirse como prevención, técnicas para evitarlos, detección y recuperación de los mismos.

Prevención de Interbloqueos

La estrategia empleada con más frecuencia por los diseñadores para tratar el bloqueo mutuo es la prevención. En esta sección se examinan los métodos de prevención, junto con los efectos que tienen sobre los usuarios y los sistemas, sobre todo desde la perspectiva del rendimiento. Havender llegó a la conclusión de que si falta alguna de las cuatro condiciones necesarias no puede haber un interbloqueo. Este autor sugiere las siguientes estrategias para negar varias de esas condiciones :

• Cada proceso deberá pedir todos sus recursos al mismo tiempo y no podrá seguir la ejecución hasta haberlos recibido todos.

• Si a un proceso que tiene recursos se le niegan los demás, ese proceso deberá liberar sus recursos y, en caso necesario, pedirlos de nuevo junto con los recursos adicionales.

• Se impondrá un ordenamiento lineal de los tipos de recursos en todos los procesos ; es decir, si a un proceso le han sido asignados recursos de un tipo específico, en lo sucesivo sólo podrá pedir aquellos recursos que siguen en el ordenamiento.

Evitación de Interbloqueos

Aún presentándose las condiciones para un interbloqueo, todavía es posible evitarlo mediante una asignación cuidadosa de los recursos. Tal vez el algoritmo más famoso para evitar el interbloqueo sea el algoritmo del banquero de Dijkstra, cuyo interesante nombre se debe a que atañe a un banquero que otorga préstamos y recibe pagos a partir de una determinada fuente de capital.

Detección y Recuperación de Interbloqueos

La detección del bloqueo mutuo es el proceso de determinar si realmente existe un interbloqueo e identificar los procesos y recursos implicados en él. Los algoritmos de detección determinan por lo general si existe una espera circular.
El empleo de algoritmos de detección del interbloqueo implica cierto gasto extra durante la ejecución. Así pues, se presenta de nuevo la cuestión de costeabilidad, tan habitual en los sistemas operativos, ¿el gasto extra debido a los algoritmos de detección del bloqueo mutuo se justifica con los ahorros potenciales debidos a la localización y solución de los interbloqueos?

MEMORIA

La administración de memoria se refiere a los distintos métodos y operaciones que se encargan de obtener la máxima utilidad de la memoria, organizando los procesos y programas que se ejecutan de manera tal que se aproveche de la mejor manera posible el espacio disponible.

Para poder lograrlo, la operación principal que realiza es la de trasladar la información que deberá ser ejecutada por el procesador, a la memoria principal. Actualmente esta administración se conoce como Memoria Virtual ya que no es la memoria física del procesador sino una memoria virtual que la representa. Entre algunas ventajas, esta memoria permite que el sistema cuente con una memoria más extensa teniendo la misma memoria real, con lo que esta se puede utilizar de manera más eficiente. Y por supuesto, que los programas que son utilizados no ocupen lugar innecesario.

Las técnicas que existen para la carga de programas en la memoria son: partición fija, que es la división de la memoria libre en varias partes (de igual o distinto tamaño) y la partición dinámica, que son las particiones de la memoria en tamaños que pueden ser variables, según la cantidad de memoria que necesita cada proceso.

Entre las principales operaciones que desarrolla la administración de memoria se encuentran la reubicación, que consiste en trasladar procesos activos dentro y fuera e la memoria principal para maximizar la utilización del procesador; la protección, mecanismos que protegen los procesos que se ejecutan de interferencias de otros procesos; uso compartido de códigos y datos, con lo que el mecanismo de protección permite que ciertos procesos de un mismo programa que comparten una tarea tengan memoria en común.

SINCRONIZACIÓN ENTRE PROCESOS

Un proceso es cooperativo si puede afectar o ser afectado por los otros procesos que se están ejecutando en el sistema.

La cooperación entre procesos requiere: la ejecución concurrente de los mismos, mecanismos de comunicación y mecanismos de sincronización. Al haber procesos concurrentes se deben emplear mecanismos para asegurar la consistencia de los datos.

Como ejemplo, supongamos que tenemos 3 procesos concurrentes que quieren modificar un mismo archivo. Si los 3 acceden a este al mismo tiempo el archivo quedará con valores incorrectos. Para resolver problemas como este se ideó la sección crítica, que es el segmento de código que accede a los recursos. Sólo puede haber una sección crítica en ejecución por vez, así nos aseguramos que los datos quedan consistentes.

La sección crítica

El problema de la seción crítica consiste en diseñar un protocolo que los procesos puedan usar para cooperar de esta forma. Cualquier solución al problema de la sección crítica deberá satisfacer los tres requisitos siguiente:

• Exclusión mutua.- Si el proceso Pi está ejecutándose en su sección crítica, los demás procesos no pueden estar ejecutando sus secciones críticas.

• Progreso.- Si ningún proceso está ejecutando su sección crítica, y algunos procesos desean entrar en sus correspondientes secciones críticas, sólo aquellos procesos que no estén ejecutando sus secciones restantes pueden participar en la decisión de cuál será el siguiente que entre en su sección crítica, y esta selección no se puede posponer indefinidamente.

• Espera limitada.- Existe un límite en el número de veces que se permite que otros procesos entren en sus secciones críticas después de que un proceso haya hecho una solicitud para entrar en su sección crítica y antes de que la misma haya sido concedida.

Se usan dos métodos generales para gestionar las secciones críticas en los sistemas operativos:

1. Kernels apropiativos.- Permite que un proceso sea desalojado mientras se está ejecutando en modo kernel.

2. Kernels no apropiativos.- No apropiativo no permite que un proceso que se esté ejecutando en modo kernel sea desalojado.

Hardware de sincronización

En sistemas de un procesador, el problema de las secciones críticas podría ser resuelto simplemente si pudiéramos deshabilitar las interrupciones mientras una variable compartida está siendo actualizada.

Esta solución no es factible para un sistema con varios procesadores debido a la demora que implica el pasaje de mensajes.

En muchos sistemas existen instrucciones de hardware que pueden ser usadas para resolver el problema de las secciones críticas.

Estas instrucciones permiten ejecutar atómicamente las operaciones de:

• chequear y modificar el contenido de una palabra, o

• intercambiar el contenido de dos palabras

Semáforos

Las soluciones por hardware presentadas no son fáciles de generalizar a problemas más complejos.

Esta dificultad se puede superar usando una herramienta de sincronización llamada semáforo.

Un semáforo S es una variable entera que solo es accedida a través de dos operaciones atómicas: wait y signal.

wait(S): while S <= 0 do no-op

S := S - 1;

signal(S): S := S +1;

Problemas clásicos de sincronización

Buffer finito

Lectores y escritores

Filósofos comensales

Buffer finito

Buffer de tamaño N

Semáforo mutex inicializado en 1

Semáforo full inicializado en 0

Semáforo empty inicializado en N

Lectores y escritores

Una zona de memoria es compartida por varios procesos concurrentes

Lectores – sólo lee datos; no efectúan actualizaciones de datos

Escritores – puede leer y escribir

Problema – permitir a múltiples lectores leer simultáneamente; sólo un escritor puede acceder a
los datos en forma simultánea.

Recursos Compartidos

Datos

Semáforo mutex inicializado en 1.

Semáforo wrt inicializado en 1.

Entero readcount inicializado en 0.

Problema de los Lectores

3 variantes:

(1) Los lectores tienen prioridad
Muerte por inanición de los escritores

(2) Los escritores tienen prioridad
Muerte por inanición de los lectores

(3) Lectores y Escritores tienen la misma Prioridad
No hay problemas de inanición

El problema de los filósofos comensales

Recursos compartidos

Fuente de arroz (datos)

Semáforos chopstick [5] inicializados en 1

Monitores

Son mecanismos de sincronización de nivel más alto que semáforos. La construcción se realiza a nivel de lenguaje de programación que controla el acceso a datos compartidos.

Un tipo monitor tiene un conjunto de operaciones definidas por el programador que gozan de la característica de exclusión mutua dentro del monitor.

ADMINISTRACION DEL PROCESADOR

Niveles de planificación

La planificación de la CPU, en el sentido de conmutarla entre los distintos procesos, es una de las funciones del sistema operativo. Este despacho es llevado a cabo por un pequeño programa llamado planificador a corto plazo o dispatcher (despachador). La misión del dispatcher consiste en asignar la CPU a uno de los procesos ejecutables del sistema, para ello sigue un determinado algoritmo. En secciones posteriores estudiaremos algunos algoritmos posibles. Para que el dispatcher conmute el procesador entre dos procesos es necesario realizar un cambio de proceso.

Los acontecimientos que pueden provocar la llamada al dispatcher dependen del sistema (son un subconjunto de las interrupciones), pero son alguno de estos:

•El proceso en ejecución acaba su ejecución o no puede seguir ejecutándose (por una E/S, operación WAIT, etc).

•Un elemento del sistema operativo ordena el bloqueo del proceso en ejecución (ver estados de un proceso).

•El proceso en ejecución agota su cuantum o cuanto de estancia en la CPU.

•Un proceso pasa a estado listo.

Hay que destacar el hecho de que cuanto menos se llame al dispatcher menos tiempo ocupa la CPU un programa del sistema operativo, y, por tanto, se dedica más tiempo a los procesos del usuario (un cambio de proceso lleva bastante tiempo).

Así, si sólo se activa el dispatcher como consecuencia de los 2 primeros acontecimientos se estará haciendo un buen uso del procesador. Este criterio es acertado en sistemas por lotes en los que los programas no son interactivos. Sin embargo, en un sistema de tiempo compartido no es adecuado, pues un proceso que se dedicara a realizar cálculos, y no realizara E/S, monopolizaría el uso de la CPU. En estos sistemas hay que tener en cuenta el conjunto de todos los procesos, activándose el dispatcher con la circunstancia tercera y, posiblemente, la cuarta. Los sistema operativos en que las dos siguientes circunstancias no provocan la activación del dispatcher muestran preferencia por el proceso en ejecución, si no ocurre esto se tiene más en cuenta el conjunto de todos los procesos.

Se puede definir el scheduling -algunas veces traducido como -planificación- como el conjunto de políticas y mecanismos construidos dentro del sistema operativo que gobiernan la forma de conseguir que los procesos a ejecutar lleguen a ejecutarse.

El scheduling está asociado a las cuestiones de:

•Cuándo introducir un nuevo proceso en el Sistema.

•Determinar el orden de ejecución de los procesos del sistema.

El scheduling está muy relacionado con la gestión de los recursos. Existen tres niveles de scheduling, como se ilustra en la figura 1.1, estos niveles son:

•Planificador de la CPU o a corto plazo.

•Planificador a medio plazo.

•Planificador a largo plazo.

Algoritmos de planificación

En los siguientes subapartados vamos a estudiar ciertos algoritmos utilizados para planificar la CPU, la elección de uno (o de una mezcla de varios) depende de decisiones de diseño. Antes de exponer los algoritmos vamos a explicar ciertas medidas que se utilizan para evaluarlos.

•Porcentaje de utilización de la CPU por procesos de usuario. La CPU es un recurso caro que necesita ser explotado, los valores reales suelen estar entre un 40% y un 90%.

•Rendimiento (throughput) = nº de ráfagas por unidad de tiempo. Se define una ráfaga como el período de tiempo en que un proceso necesita la CPU; un proceso, durante su vida, alterna ráfagas con bloqueos. Por extensión, también se define como el nº de trabajos por unidad de tiempo.

•Tiempo de espera (E) = tiempo que una ráfaga ha permanecido en estado listo.

•Tiempo de finalización (F) = tiempo transcurrido desde que una ráfaga comienza a existir hasta que finaliza. F = E + t (t = tiempo de CPU de la ráfaga).

•Penalización (P) = E + t / t = F / t, es una medida adimensional que se puede aplicar homogéneamente a las ráfagas independientemente de su longitud.
En general, hay que maximizar los dos primeros parámetros y minimizar los tres últimos. Sin embargo, estos objetivos son contradictorios, el dedicar más tiempo de CPU a los usuarios se hace a costa de llamar menos al algoritmo de planificación (menos cambios de proceso), y de simplificarlo. Esto provoca que la CPU se reparta menos equitativamente entre los procesos, en detrimento de los últimos tres parámetros.
Así pues, dependiendo de los objetivos se elegirá cierto algoritmo. En los sistemas por lotes suele primar el rendimiento del sistema, mientras que en los sistemas interactivos es preferible minimizar, por ejemplo, el tiempo de espera.

Planificación de Plazo Fijo

En la planificación de plazo fijo se programan ciertos trabajos para terminarse en un tiempo específico o plazo fijo. Estas tareas pueden tener un gran valor si se entregan a tiempo, y carecer de él si se entregan después del plazo. Esta planificación es compleja por varios motivos:

Planificación Primero en Entrar-Primero en Salir (FIFO, First In First Out)

Cuando se tiene que elegir a qué proceso asignar la CPU se escoge al que llevara más tiempo listo. El proceso se mantiene en la CPU hasta que se bloquea voluntariamente.

Planficación por Turno Rotatorio (Round Robin).

Este es uno de los algoritmos más antiguos, sencillos y equitativos en el reparto de la CPU entre los procesos, muy válido para entornos de tiempo compartido. Cada proceso tiene asignado un intervalo de tiempo de ejecución, llamado cuantum o cuanto. Si el proceso agota su cuantum de tiempo, se elige a otro proceso para ocupar la CPU. Si el proceso se bloquea o termina antes de agotar su cuantum también se alterna el uso de la CPU. El round robin es muy fácil de implementar.

Tamaño del Cuanto

La determinación del tamaño del cuanto es vital para la operación efectiva de un sistema de cómputo. ¿Debe el cuanto ser pequeño o grande?, ¿fijo o variable?, ¿el mismo para todos los usuarios o debe determinarse por separado para cada uno?
Si el cuanto de tiempo es muy grande, cada proceso tendrá el tiempo necesario para terminar, de manera que el esquema de planificación por turno rotatorio degenera en uno de primero-en-entrar-primero-en-salir. Si el cuanto es muy pequeño, el gasto extra por cambio de proceso se convierte en el factor dominante y el rendimiento del sistema se degradará hasta el punto en que la mayor parte del tiempo se invierte en la conmutación del procesador, con muy poco o ningún tiempo para ejecutar los programas de los usuarios.

Planificación por Prioridad al más corto (SJF, Short Job First).

Al igual que en el algoritmo FIFO las ráfagas se ejecutan sin interrupción, por tanto, sólo es útil para entornos batch. Su característica es que cuando se activa el planificador, éste elige la ráfaga de menor duración. Es decir, introduce una noción de prioridad entre ráfagas. Hay que recordar que en los entornos batch se pueden hacer estimaciones del tiempo de ejecución de los procesos.

Planificación por Prioridad al Tiempo Restante más Corto (SRTF, Short Remaining Time First).

Es similar al anterior, con la diferencia de que si un nuevo proceso pasa a listo se activa el dispatcher para ver si es más corto que lo que queda por ejecutar del proceso en ejecución. Si es así el proceso en ejecución pasa a listo y su tiempo de estimación se decrementa con el tiempo que ha estado ejecutándose.

Planificación a la Tasa de Respuesta más Alta

Brinch Hansen desarrolló la estrategia de prioridad a la tasa de respueta más alta (HRN, highest-response-ratio-next) que corrige algunas deficiencias de SJF, particularmente el retraso excesivo de trabajos largos y el favoritismo excesivo para los trabajos cortos. HRN es un disciplina de planificación no apropiativa en la cual la prioridad de cada proceso no sólo se calcula en función del tiempo de servicio, sino también del tiempo que ha esperado para ser atendido. Cuando un trabajo obtiene el procesador, se ejecuta hasta terminar.

Planificación por el Comportamiento

Con este tipo de planificación se pretende garantizar al usuario cierta prestación del sistema y tratar de cumplirla. Si en un sistema tenemos 'n' usuarios lo normal será garantizar a cada uno de ellos al menos 1/n de la potencia del procesador. Para ello necesitamos del tiempo consumido por el procesador y el tiempo que lleva el proceso en el sistema. La cantidad de procesador que tiene derecho a consumir el proceso será el cociente entre el tiempo que lleva en el sistema entre el número de procesos que hay en el sistema.

SISTEMAS MULTIPROCESADORES

El concepto de trabajo en equipo, el dividir una tarea entre varias unidades de ejecución para que pueda completarse más rápidamente, fue naturalmente llevado al mundo de las computadoras prácticamente desde sus inicios. David Slotnick, quien fuera colaborador de Von Neumann, le hizo la propuesta de una máquina que contara con varias unidades de procesamiento central; sin embargo, al sentir de Von Neumann, la tecnología de la época no permitía la realización de semejante proyecto. Aun así, Slotnick continuó con sus ideas, lo que eventualmente daría origen a la ILLIAC IV (1964), considerada una de las primeras computadoras masivamente paralelas de la historia. En la actualidad, las computadoras más rápidas del mundo son las máquinas masivamente paralelas.

El cómputo paralelo ofrece una serie de ventajas que lo hacen particularmente atractivo para los requerimientos de capacidad de cómputo, en particular los de la comunidad científica. Una de estas ventajas es económica. El uso de componentes comunmente disponibles, en grandes cantidades, permite ofrecer mayor rendimiento, a un precio menor que el de máquinas con procesadores especialmente diseñados (como por ejemplo las máquinas de procesadores vectoriales y de propósito específico). Adicionalmente, las computadoras paralelas son inherentemente escalables, permitiendo actualizarlas para adecuarlas a una necesidad creciente. Las arquitecturas ``tradicionales'' se actualizan haciendo los procesadores existentes obsoletos por la introducción de nueva tecnología a un costo posiblemente elevado. Por otro lado, una arquitectura paralela se puede actualizar en términos de rendimiento simplemente agregando más procesadores.

En ocasiones se menciona también la limitante física; existen factores que limitan la velocidad máxima de un procesador, independientemente del factor económico. Barreras físicas infranqueables, tales como la velocidad de la luz, efectos cuánticos al reducir el tamaño de los elementos de los procesadores, y problemas causados por fenómenos eléctricos a pequeñas escalas, restringen la capacidad máxima de un sistema uniprocesador, dejando la opción obvia de colocar muchos procesadores para realizar cálculos cooperativamente.
Como toda nueva arquitectura, las máquinas paralelas poseen características, y plantean ventajas y desventajas, que obligan a considerar cuidadosamente su utilización. También, dentro del mundo de las máquinas paralelas, existen dos enfoques con distintas características: la arquitectura SMP y la arquitectura MPP.

SISTEMAS DE TIEMPOS REALES

Es bien sabido que los Sistemas de Tiempo Real pueden llevar el control eventos que ocurren en el mundo real, por lo tanto es un sistema que responde a un estímulo externo dentro de un tiempo especificado. Entonces los sistemas de tiempo real interactúan con el entorno que se le presente y pueden ejecutar acciones de respuesta para determinados estímulos de dicho entorno. Este tipo de sistemas tienen muchas características que benefician a todo el individuo que pretenda interactuar con ellos

Definición: básicamente los sistemas de tiempo real se definen como sistemas informáticos que tienen la capacidad de interactuar rápidamente con su entorno físico, el cual puede realizar funciones de supervisión o control para su mismo beneficio. Todos los sistemas de tiempo real tienen la facultad de ejecutar actividades o tareas en de intervalos de tiempo bien definidos.

Todas las tareas son ejecutadas inmediatamente en una forma concurrente, esto es para sincronizar el funcionamiento del sistema con la simultaneidad de acciones que se presentan en el mundo físico. En los sistemas de tiempo real los intervalos de tiempo en que se ejecutan las tareas se definen por un esquema de activación y por un plazo de ejecución. En lo que respecta al esquema de activación puede ser periódico, es decir en intervalos regulares, o también puede ser aperiódico, es decir, en respuesta a sucesos externos que ocurren de forma irregular.

La mayoría de los STR son utilizados cuando existen requerimientos de tiempo muy rígidos en las operaciones o en el flujo de datos, generalmente son requeridos como sistemas de control en una aplicación dedicada. La eficiencia de los STR no solo depende de la exactitud de los resultados de cómputo, sino también del momento en que los entrega. La predictibilidad es su característica principal de este tipo de sistemas. Este tipo de sistemas se caracterizan por tener que producir una salida, como respuesta a una entrada, en un tiempo determinado. El intervalo de tiempo que se presenta entre la entrada y la salida debe ser muy pequeño para que la respuesta temporal del sistema sea aceptable.

Cuando se diseña un sistema de tiempo real se pasa por varias fases:

1.- Se identifican todas las tareas que se tienen que realizar y también se identifican las restricciones temporales que se pretenden cumplir.

2.- Posteriormente se codifican los programas que ejecutarán las tareas

3.- Posteriormente se pasa a medir el tiempo de cómputo de cada tarea y se realiza un análisis de planificabilidad.

Este análisis consiste en aplicar unas pruebas al conjunto de tareas de tal forma que si éstas pasan el test entonces se puede garantizar que ninguna tarea perderá su plazo de ejecución. De lo contrario si no pasan el test se tiene que volver a comenzar desde el principio, es decir, comenzar de nuevo, utilizando otro procesador más potente o utilizando otros algoritmos para implementar las tareas.

Generalidades de los str

• Requiere técnicas de análisis, diseño y prueba que son desconocidas en otras áreas de aplicación.

• Esta muy acoplado con el mundo externo.

• Opera bajo condiciones de rendimiento muy rigurosas.

• Esta conducido por el hardware, software, por las características del sistema operativo, por requisitos de la aplicación, así como por aspectos de diseño.

Elementos que componen un str

• Aspectos de integración y de rendimiento.

• Manejo de Interrupciones.

• Bases de Datos de Tiempo Real.

• Sistemas Operativos de Tiempo Real.

• Lenguajes de Tiempo Real.

• Sincronización y comunicación de tareas.

TEMAS EXPUESTOS GRUPO IV

Presentacion de Jorge http://docs.google.com/present/view?id=dckqs4tk_7dj6stsgp
Presentacion de Oliver http://docs.google.com/present/view?id=dckqs4tk_075j5d6d4

¿QUÉ ES UN PROCESO?

Hasta ahora hemos utilizado siempre el término programa. A partir de ahora distinguiremos entre programa y proceso. Un programa es una secuencia de instrucciones escrita en un lenguaje dado. Un proceso es una instancia de ejecución de un programa, caracterizado por su contador de programa, su palabra de estado, sus registros del procesador, su segmento de texto, pila y datos, etc. Un programa es un concepto estático, mientras que un proceso es un concepto dinámico. Es posible que un programa sea ejecutado por varios usuarios en un sistema multiusuario, por cada una de estas ejecuciones existirá un proceso, con su contador de programa, registros, etc. El sistema operativo necesita el concepto de proceso para poder gestionar el procesador mediante la técnica de multiprogramación o de tiempo compartido, de hecho, el proceso es la unidad panificable, o de asignación de la CPU.

Estados de un proceso y Transiciones de estado de los procesos

Durante su vida, un proceso puede pasar por una serie de estados discretos, algunos de ellos son:

•En ejecución: El proceso ocupa la CPU actualmente, es decir, se está ejecutando.

•Listo o preparado: El proceso dispone de todos los recursos para su ejecución, sólo le falta la CPU.

•Bloqueado: Al proceso le falta algún recurso para poder seguir ejecutándose, además de la CPU. Por recurso se pueden entender un dispositivo, un dato, etc. El proceso necesita que ocurra algún evento que le permita poder proseguir su ejecución.

Transiciones de estado de los procesos

A continuación se dan ejemplos de eventos que pueden provocar transiciones de estado en un proceso en este modelo de tres estados. La mayoría de estos eventos se discutirán con profundidad a lo largo del curso:

•De ejecución á Bloqueado: al iniciar una operación de E/S, al realizar una operación WAIT sobre un semáforo a cero (en el tema de procesos concurrentes se estudiarán los semáforos).

•De ejecución á Listo: por ejemplo, en un sistema de tiempo compartido, cuando el proceso que ocupa la CPU lleva demasiado tiempo ejecutándose continuamente (agota su cuanto) el sistema operativo decide que otro proceso ocupe la CPU, pasando el proceso que ocupaba la CPU a estado listo.

•De Listo á en ejecución: cuando lo requiere el planificador de la CPU (veremos el planificador de la CPU en el tema de planificación de procesos).

•De Bloqueado á Listo: se dispone del recurso por el que se había bloqueado el proceso. Por ejemplo, termina la operación de E/S, o se produce una operación SIGNAL sobre el semáforo en que se bloqueó el proceso, no habiendo otros procesos bloqueados en el semáforo.

El bloque de control de proceso

El bloque de control de proceso es la estructura de datos central y más importante de un sistema operativo. Cada bloque de control de proceso contiene toda la información de un proceso que necesita un sistema operativo para su control. Estos bloques son leídos y/o modificados por casi todos los módulos de un sistema operativo, incluyendo aquellos que tienen que ver con la planificación, la asignación de recursos, el tratamiento de interrupciones y el análisis y supervisión del rendimiento. Puede decirse que el conjunto de los bloques de control de procesos definen el estado del sistema operativo. El conjunto de todos los PCB’s se guarda en una estructura del sistema operativo llamada tabla de procesos, la cual se puede implementar como un vector o un lista enlazada. La tabla de procesos reside en memoria principal, debido a su alta frecuencia de consulta.

Operaciones con procesos

Los sistemas que administran procesos deben ser capaces de realizar ciertas operaciones sobre y con los procesos. Tales operaciones incluyen:

• Crear y destruir un proceso

• Suspender y reanudar un proceso

• Cambiar la prioridad de un proceso

• Bloquear y "desbloquear" un proceso

• Planificar un proceso (asignarle la CPU)

• Permitir que un proceso se comunique con otro (a esto se denomina comunicación entre procesos, y se estudiará en el tema de procesos concurrentes).

• Crear un proceso implica muchas operaciones, tales como:

• Buscarle un identificador

• Insertarlo en la tabla de procesos

• Determinar la prioridad inicial del proceso

• Crear el PCB

• Asignar los recursos iniciales al proceso

Un proceso puede crear un nuevo proceso. Si lo hace, el proceso creador se denomina proceso padre, y el proceso creado, proceso hijo. Sólo se necesita un padre para crear un hijo. Tal creación origina una estructura jerárquica de procesos, en la cual cada hijo tiene sólo un padre, pero un padre puede tener muchos hijos. En el sistema operativo UNIX la llamada al sistema ‘fork’ crea un proceso hijo. Destruir un proceso implica eliminarlo del sistema. Se le borra de las tablas o listas del sistema, sus recursos se devuelven al sistema y su PCB se borra (es decir, el espacio de memoria ocupado por su PCB se devuelve al espacio de memoria disponible). La destrucción de un proceso es más difícil cuando éste ha creado otros procesos. En algunos sistemas un proceso hijo se destruye automáticamente cuando su padre es destruido; en otros sistemas, los procesos creados son independientes de su padre y la destrucción de este último no tiene efecto sobre sus hijos.

Un proceso suspendido o bloqueado no puede proseguir sino hasta que lo reanuda otro proceso. La suspensión es una operación importante, y ha sido puesta en práctica de diferentes formas en diversos sistemas. La suspensión dura por lo normal sólo periodos breves. Muchas veces, el sistema efectúa las suspensiones para eliminar temporalmente ciertos procesos, y así reducir la carga del sistema durante una situación de carga máxima. Cuando hay suspensiones largas se debe liberar los recursos del proceso. La decisión de liberar o no los recursos dependen mucho de la naturaleza de cada recurso. La memoria principal debe ser liberada de inmediato cuando se suspenda un proceso; una unidad de cinta puede ser retenida brevemente por un proceso suspendido, pero debe ser liberada si el proceso se suspende por un periodo largo o indefinido. Reanudar (o activar) un proceso implica reiniciarlo a partir del punto en el que se suspendió. Cambiar la prioridad de un proceso normalmente no implica más que modificar el valor de la prioridad en el PCB.

Modos de Ejecución

Antes de continuar la discusión sobre la forma en que el sistema operativo gestiona los procesos, hace falta distinguir entre el modo de ejecución del procesador que normalmente se asocia con el sistema operativo y el modo que normalmente se asocia con los programas de usuario.

Cambio de Proceso

A primera vista, la función de cambio de proceso parece sencilla. En cierto momento, un proceso que se está ejecutando se interrumpe, el sistema operativo pone a otro proceso en el estado de ejecución y pasa el control a dicho proceso. Sin embargo, surgen diversas cuestiones de diseño

Procesos y Threads

El concepto de proceso es más complejo y sutil que el presentado hasta ahora. Engloba dos conceptos separados y potencialmente independientes: uno relativo a la propiedad de recursos y otro que hace referencia a la ejecución.

• Unidad que posee recursos: A un proceso se le asigna un espacio de memoria y, de tanto en tanto, se le puede asignar otros recursos como dispositivos de E/S o ficheros.

• Unidad a la que se le asigna el procesador: Un proceso es un flujo de ejecución (una traza) a través de uno o más programas. Esta ejecución se entremezcla con la de otros procesos. De tal forma, que un proceso tiene un estado (en ejecución, listo, etc.) y una prioridad de expedición u origen. La unidad planificada y expedida por el sistema operativo es el proceso.

Windows 8


Microsft esta trabajando en Windows 8 verion 128 bits, algunos de los accesorios que se han escuchado que incluira este sistema operativo sera: simplicidad mejorada, mejor soporte de toque y gestos, así como soporte a pantallas de tamaño más pequeño.

¡¡¡¡Microsoft sacara a Windows 8 pero sus ojos estan en Apple!!!!



X box 360 Slim


Microsoft lanza su X box 360 Slim con unos cuantos accesorios mejores que el anterior 360, los cuales incluye tamayo, visualizacion, plataforama para controlar el sobrecalentamiento, un disco duro mas pequeño entre otras. Pero aparte de tod eso la pregunta que se hacen todo es cual es el mejor, sin duda alguna que para hacer este pregunta hay que poner diferentes departamentos para ver la diferencia asi que:

Manos en el dispositivo: sin lugar a duda que el X box 360 Slim al estar mas adelantado a la epoca le sobre pasa al 360 normal, ya que consta de una apariencia mas tecnologica y es mas pequeño, asi que en ese sentido el Slim gana.

Accesibility y Funcionamiento: en el funcionamiento se basa en un prioridad que el X box 360 siempre fallaba y es en el sobrecalentamiento que se apaga automaticamente cuando este llegaba a sobrecalentarse demasiado, el Slim llego con un diseño que automaticamente presiente un sobrecalentamiento se apaga y no arriesga el dispositivo y no hace tanto ruido como el 360.

Precios y Accesorios
: cuando se refiere a los precios y accesorios como desposito nuevo tiene que valer mas asi que el Slim esta por los 300$ dolares solamente con lo necesario,mientras que el 360 y otros modelos estan a precios inferiores y vienen con varios juegos y si se encuentran a mayor precio de 300$ dolares es porque llevan consigo unos cuantos juegos de mas.

Asi que si tienes tu X box 360 normal no es necesario que lo cambies, pero si decides comprar uno que sea el X box 360 Slim.



Cisco Tablet "Cius"


Entra otro competidor al batalla de las tablet pc's, y es de Cisco, se llama "Cius" pesa alrededor de 1.15 libras y trae consigo una pantalla de 7 pulgadas con una resolucion SVGA (Super Video Graphics Array), tambien trae consigo una camara 720p y es capas de grabar 30 marcos por segundo. Sera usual para hacer, editar y subir a la red videos, tambien para hacer conferencias; vendra con modelos Wi-Fi, modelos 3G y proximamente modelo 4G para el 2011.

Su batteria sera de durabilidad aproximada a las ocho horas, soportara usb y bluetooth tambien estara integrado un HD soundstation; el sistema operativo que usara sera de Android. Aunque el precio todavia no ah sido puesto saldra accesible para usuarios en este otoño, con una salida al todo el publico en primavera del 2011.






Sutraido del texto de Robert Workman de Tech News Daily
http://www.technewsdaily.com/cisco-introduces-the-cius-tablet-0800/

Tecnologia y Espionaje


La nueva herramienta que esta siendo elaborada por la Agencia de Defensa de Busqueda de Proyectos Avansados [Defense Advanced Research Projects Agency (DARPA)] llamado Nano Vehiculo Aereo [Nano Aerial Vehicle (NAV)], es nada mas y nada menos que un pequeño dispositivo camulfajeado en una pequeña ave, con la mision de espionar. Sus capacidades son extraodinarias para lo pequeño que es, puede alcanzar alredodor de 20mph, y volar dentro y fuera de edificios, usando su propia fuente de energia y usando sus alas para propulsion.

Este modelo de dispositivo fue escogido en una competencia de Lockheed Martin, MicroPropulsion Inc., y Draper Laboratory al final del primer programa el pasado año, es un despositivo sumamente ligero, y se estima que habran muchos de estos, muchos micrositemas autonomos en la calle, dentro de 10 o 15 años.


Tecnologia y Seguridad


Como ya eh dicho anteriormente no solo es en pc's y en dispositivos electronicos que se esta viendo la tecnologia sino que, se esta filtrando en todos los lados, ejemplo: puertas de casas y la seguridad de la casa en si. Se ah creado un sistema de seguridad para las casas y especialmente para los llavines con codigos de seguridad, si como en las peliculas que vemos de las puertas de seguridad de 007 y todos esos agentes; se le instala un codigo de distintos digitos y con esto usted asegura mas su casa.

Pero no solo eso sino que esta conectado de manera wireless con las ventanas y demas puertas de la casa, por si acaso querias entrar por la ventana se activara la alarma de la puerta y esto automaticamente llamara a la policia, pero la parte mas interesantes es que si la puerta detecta una presencia extraña te manda un mensaje a tu celular (claro siempre y cuando tu celular sea uno inteligent) informandote del estado, si tambien puedes dejar una camara y esta te mandara un mensaje, muy chevere tecnologia para seguridad, en realidad muy creativa. Todo estos sistemas le pueden costar desde 10$ dolares hasta 700$ depende de lo que usted prefiera.


Sustraido del texto de John Biggs del New York Times
http://www.nytimes.com/2010/07/01/garden/01hometech.html?ref=technology

sábado, 12 de junio de 2010

Tecnologia ayuda a vigilar


Con la ayuda de nuevas tecnologia el estado de vigilancia y seguridad se va hacia otro grado y sube otro piso, en este caso hablamos de las camaras de seguridad las cuales solo podian visualizar un solo perimetro y en algunos casos cuatro lugares al mismo tiempo, pero esta nueva camara puede tener un acceso a vigilar los 360 grados en el cual esta posisionada ya que esta integrada con pequeñas camaras las cuales captan un lugar especifico y despues las une toda pareciendo como si solo fuera una.

Estas nuevas camaras fueron desarrolladas por el U.S. Department of Homeland Security (DHS) para el beneficio de todos, ahora se podra tener un mejor acceso a los hechos ocurrido en un lugar gracias a esta camara la cual es 360, visible para todos los lados.


Nueva tecnologia en armas


Si asi mismo en armas, no solo la nueva tecnologia ah sido implantada en comunicacion, carros, medicina, etc, sino que tambien ah sido utlilizada para la guerra el mejor ejemplo es la XM25 en su nombre completo “XM25 Counter Defilade Target Engagement System” en español el significado viniera siendo como Systema Comprometido con el Objetivo Escondido Opositor, es una arma la cual puede visualzar objetivos los cuales el ser humano no puede, es decir objetivos escondido ya sea tras muros o tras cualquier material no visible por el ojo humano.

El XM25 permitirá a soldados eliminar estos objetivos justamente en segundos por dando la vuelta o sobre tales obstáculos y su sistema de control de fuego usa una serie de sensores de precisión, lásers y óptica para medir la distancia del objetivo. Cuando el soldado aprieta el gatillo, los datos son transmitidos de manera wireless al microchip de la bala y lo programa para detonarse encima o detrás del enemigo. Un interruptor sobre el gatillo deja al soldado añadir o restar un o dos metros a la distancia, y asegurar que la bala explote dentro de un edificio o más allá de una pared.


Todavia quieren mas....


La compañia de Motorola al ver que apple a lanzado su nuevo i phone dice que su proximo android sera lanzado pronto y sera lanzado con la nueva capacidad de tener de procesador 2 Ghz es decir el doble de los que los celulares inteligentes corren ahora, "hummm muy interesante esta eso, a mi entender a si fue que las computadoras empezaron, cuidado si en un tiempo las computadoras no existiran" ; en efecto con relacion a eso Sanjay Jha, CEO de Motorola dijo que dentro de 2 años las empresan no daran computadoras sino celulares inteligentes.

Sin lugar a duda que pasara, porque ya los celulares practicamente estan abarcando todo lo posible que realiza una computadora y hasta mas, que mal tal vez le diremos adios a las pc's antes de tiempo.

Nuevo I Phone 4


Una de las tecnologias mas esperada ah llegado al mercado, video-llamada, si asi mismo es eso que veiamos en las peliculas de james bond y todas esas peliculas con dispositivos adelantados ah llegado y lo tiene apple. El nuevo I Phone 4 no solo cuenta con video llamada sino que integra una camara de 5 megapixeles con flash y el video integrado es HD es decir se pueden tomar videos en HD, viene de 16 y 32 Gb respectivamente.

Algo que se debe tomar en cuenta es que no es 4G, es la cuarta generacion del Iphone de apple pero al igual que los otros i phones sigue siendo 3G para que no se confundan.





Helix dandole otro detalle al I Phone


Es increible como pueden evolucionar la tecnologia recordando las graficas y el funcionamiento del nintendo o un simple atari, porque lo digo bueno por Helix Gaming Grip accessory y su nuevo desarrollo con el I Phone. Es un adaptador que se le coloca al i phone para usarlo como un control para facilitar y entretener mas al usuario al momneto del juego, sin duda alguna segun criticos aunque tenga un aspecto raro, realmente vale la pena comprarlo.

Se configura para ponerse horizontal y verticalmente depende de como el usuario lo quiera, en fin como siempre se dice toda tecnologia es para facilitarle la vida al ser humano, en este sentido para facilitarle o entretenerlo mas en la manera de jugar.

Mas tecnologia menos trabajo


Se ah considerado en poner en marcha una nueva tecnologia que se encargara se registrar los cables electricos que van por los postes de luz, para detectar cualquier falla que tengan para asi, no arriesgar tanto la vida humana y tambien para ahorarse unos cuantos billetes, aunque el aparato costara por los $ 500,000 dolares se gastara menos en esto que en lo pagado a un grupo de personas desde un helicoptero o personalmente chequeandolo anualmente.

Las pruebas iniciales son puestas para más tarde este mes, con pruebas hechas y derechas en 2014 a lo largo de 275 millas. Claro esta nueva tecnologia esta siendo probada en paices desarrollados.

Experimento de Google



Durante 24 horas fue un pequeño experimento de google el cual consistia darle vida a su buscador, publicando varias imagenes en el backround del buscador; a contrarios de otros que se encontraron esto buena idea, como quitar el fondo de google se convirtio en la 7ma informacion mas buscada en google, asi como lo oyen al parecer a algunas personas simplemente le gusta su tono blanco.

Pero no por esos que quieren blanco tienen que pagar todos, por eso google ah dejado la opcion al que quiera, asi que si quieres a google con imagenes y colorido solo tienes acceder a la opcion en la presentacion de la pagina cambiar imagen de fondo que esta localizada en la parte inferior izquierda de la pagina y seleccionar la imagen que quieras, hasta puedes seleccionar imagenes desde de tu computador, muy divertido google otra vez a dado otro paso.

martes, 1 de junio de 2010

ESTRUCTURA DE LOS SISTEMAS OPERATIVOS

Sistemas Operativos Monolíticos

Los sistemas operativos monolíticos se puede decir que son sistemas en base a instrucciones, no tienen una plataforma central sino que son instrucciones que la rigen dependiendo de la operación que se realice se escojera una instrccion diferente.Ej : los primeros sistemas operativos de unix los cuales no constituían una plataforma y eran regidos por instrucciones.

Sistemas Operativos con capas.

El sistema operativo por capas es un sistema el cual sus procedimientos se realizan por capas y el sistema en si esta regido por capas dependiendo de cual sea la función recibirá un numero de capas si la inforamacion es importante su capa será de menor numero apegada al nucleo pero si suele ser de menor importancia será una de las ultimas capas. Ej: THE (Technische Hogeschool, Eindhoven)

Máquinas virtuales.

La maquina virtual es un sistema operativo el cual le permite al usuario poder utilizar varios sitemas operativos dentro de un mismo sistema, estos es gracias a que es un programa el cual tiene como interfaz o apariencia un monitor para asi visualizar distintos OS dentro de una maquina, este programa le permite ver todos los recursos físicos del mismo haciéndole parecer como si estuviese instalado en su maquina. Ej: La máquina virtual (VM/370)

Modelo Cliente-Servidor.

Un sistema cliente servidor es un sitema en el cual se vive pidiendo y dando por asi decirlo, y se quiere conseguir con esto reducir el espacio o el trabajo del llamado cliente en su nucleo puesto que la mayoría de las cosas que tiene que hacer se las pide al servidor. Es decir este es un sitema para poner a trabajar solo una maquina (que seria el servidor) y que las otras queden libre (siendo el cliente) solo para realizar la función de hacer la tarea brindada por el servidor. Ej: Los clientes y servidores de toda red.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

HISTORIA Y EVOLUCION DE LOS SISTEMAS OPERATIVOS

Los sistemas operativos han venido evolucionando a través de los años . ya que los sistemas operativos se han apegado íntimamente a la arquitectura de las computadoras en las cuales se ejecutan .

La primera computadora digital real fue diseñada por el matemático ingles Charles Babbage ( 1792 - 1871) . Aunque Babbage gasto la mayor parte de su vida y de su fortuna intentando construir su “ maquina analítica “ , nunca la hizo funcionar adecuadamente porque era un diseño puramente mecánico y la tecnología de su época no podía producir las ruedas, el engranaje, levas y otras partes mecánicas con la alta precisión que el necesitaba. Sin tener que decirlo, la maquina analítica no tuvo un sistema operativo.

- La primera generacion (1945 - 1955 ) : Tubos de vacio y tableros enchufables


- La segunda generacion (1955 - 1965 ) : Transistores y sistemas de lote


- La tercera generacion (1965 - 1980 ) : Circuitos integrados ( CI ) y multiprogramación


- La cuarta generacion (1980 - 1990 ) : Computadoras personales
TERMINOLOGÍA BÁSICA

1. Los componentes físicos que forman parte de un sistema informático se agrupan bajo la denominación de HARDWARE (FERRETERÍA).

2. Definición de computadora digital: Se entiende por computadora digital a un ordenador: Matemático o numérico: porque toda la información que se puede encontrar dentro de la computadora está codificada por un conjunto ordenado de ceros y unos.

3. ¿Qué es y de donde deriva el término computadora? Podemos decir que una computadora es un sistema compuesto por elementos del Hardware que funcionan y se organizan mediante una serie de instrucciones precisas, las cuales son provistas por el Software.

4. Es una estructura metálica, que además de alojar los dispositivos de almacenamiento y de proceso de una computadora, actúa como un protector, para impedir que las radiaciones electromagnéticas generadas en el interior, vayan al exterior y puedan provocar algunos problemas. Suele denominarse carcasa.

5. Se encarga de alimentar o suministrar energía a toda la PC, tiene dos conectores que se insertan directamente a la tarjeta principal, estos conectores son conocidos como P8 y P9, los conectores que alimentan a los dispositivos se conocen como conectores comunes, los voltajes que da la fuente de alimentación son: Fuente de alimentación

6. Es donde se conectan todos los demás componentes del ordenador, siendo su función principal permitir una comunicación rápida entre ellos. En la placa base, además de encontrarse un zócalo para insertar el procesador (ver microprocesador) y varios bancos para memoria se encuentran las ranuras de expansión o slots, que es donde se insertan componentes como la tarjeta de vídeo, la tarjeta de sonido, etc.

7. Microchip más importante en una computadora, es considerado el cerebro de una computadora. Está constituido por millones de transistores integrados.

8. Es el dispositivo de almacenamiento más importante. En él se guarda el software incluso cuando el ordenador está apagado.

9. El CD es un disco óptico capaz de almacenar datos y música en formato digital. Esto quiere decir que la información se guarda utilizando, únicamente, series de unos y ceros (encendido-apagado, verdadero-falso, etc.)

10. Dispositivo que permite leer o grabar diskettes. Los discos de 3 ½" tienen una lengüeta de protección. Los programas y datos sólo se pueden copiar o borrar del disco cuando la lengüeta está en la posición de "sin protección".

11. Accesorio que permite oír sonidos en nuestra PC. Se le pueden conectar parlantes y micrófono para también grabar audio en formato digital.

12. Placa que controla el video de la PC. Se inserta dentro del gabinete y se conecta al monitor. A mayor calidad de la placa (mejor marca, más memoria RAM), mejores prestaciones, mayor cantidad de colores disponibles y mayores resoluciones por alcanzar.

13. La memoria RWM (read write memory) conocida como RAM (Random Access Memory - Memoria de Acceso Aleatorio) es la memoria de almacenamiento principal en donde la PC guarda los datos que está utilizando en ese momento. Físicamente, los chips de memoria son rectángulos que generalmente suelen ir soldados en grupos a unas placas con "pines" o contactos.

14. Memoria Rom Memoria de sólo lectura. Chip de memoria que almacena permanentemente instrucciones y datos. Su contenido se crea en el momento de la fabricación y no se puede alterar.

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

SISTEMAS OPERATIVOS MONOUSUARIO


Monousuarios:

Los sistemas operativos monousuarios son aquellos que soportan a un solo usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo, las computadoras personales típicamente se han clasificado en este renglón.


Multiusuarios:

Los sistemas operativos multiusuarios son capaces de dar servicio a mas de un usuario a la vez, ya sea por medio de varias terminales conectadas a la computadora o por medio de sesiones remotas en una red de comunicaciones, ni importa el numero de procesadores en la maquina ni el numero de procesos que cada usuario puede ejecutar simultáneamente.


Monotareas:

Los sistemas Monotareas son aquellos que solo permiten una tarea a la vez por el usuario. Puede darse el caso de un sistema multiusuario y monotarea, en el cual se admiten varios usuarios al mismo tiempo pero cada uno de ellos puede estar haciendo solo una tarea la vez


Multitareas:

Un sistema operativo multitarea es aquel que le permite al usuario estar realizando varias labores al mismo tiempo, por ejemplo; puede estar editando un código fuente de un programa durante su depuración mientras copia otro programa, a la vez que esta recibiendo correo electrónico en un proceso en background. Es común encontrar en ellos interfaces graficas orientadas al uso de menús y el ratón, lo cual permite un rápido intercambio entre las tareas para el usuario, mejorando su productividad.


Uní procesos:

Un sistema operativo uní procesos es aquel que es capaz de manejar solamente un procesador de la computadora, de manera que si la computadora tuviese mas de uno le seria inútil. El ejemplo mas típico de este tipo de sistemas es el dos y MacOs


Multiproceso:

Un sistema operativo multiproceso se refiere al número de procesadores del sistema, que es más de uno y este es capaz de usarlos todos para distribuir su carga de trabajo, generalmente estos sistemas trabajan de dos formas: simétricamente o asimétricamente. Cuando se trabaja de manera asimétrica, el sistema operativo selecciona a uno de los procesadores el cual ejecutara el papel de procesador maestro y servirá como pivote para distribuir la carga a los demás procesadores, que reciben el nombre de esclavos.


++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++


DEFINICION DE MULTITAREA

Es la capacidad de un sistema operativo para ejecutar varios procesos al mismo tiempo corriendo sobre un procesador o sobre varios. Quienes hayan experimentado con sistemas MS-DOS durante la década del 80 recordarán su incapacidad para realizar este tipo de actividades, algo que fue superado con los primeros Windows de Microsoft, aunque la multitarea era común en otros sistemas operativos muchos años antes, tal es el caso de Unix y derivados.

DEFINICION DE MULTIPROCESO

Dos o más unidades de proceso ejecutando cada una de ellas uno o más procesos. Cada unidad trabaja en un conjunto de instrucciones o en diferentes partes del mismoproceso.

PROCESAMIENTO POR LOTES

Se conoce como procesamiento por lotes, o modo batch, a la ejecución de un programa sin el control o supervisión directa del usuario (que se denomina procesamiento interactivo). Este tipo de programas se caracterizan porque su ejecución no precisa ningún tipo de interacción con el usuario.


Generalmente, este tipo de ejecución se utiliza en tareas repetitivas sobre grandes conjuntos de información, ya que sería tedioso y propenso a errores realizarlo manualmente. Un ejemplo sería el renderizado de los fotogramas de una película.

Los programas que ejecutan por lotes suelen especificar su funcionamiento mediante scripts o guiones (procedimientos) en los que se indica qué se quiere ejecutar y, posiblemente, qué tipo de recursos necesita reservar.

lunes, 24 de mayo de 2010

Nueva Tecnología Podría Aumentar Capacidad de DVD 1000x



La Universidad de Tokio y su equipo de investigación de junto con el profesor de química Shin-ichi Ohkoshi, desarrollaron un compuesto en cual Los estudiantes encontraron que el óxido de titanio, que es normalmente negro, cambia al marrón cuando es golpeado con la luz del sol y cuando esto pasa, los cambios que sufre el óxido de titanio hacen que este pase de un óxido simple metálico a un semiconductor, lo mejor del caso es que el óxido de titanio hace todo esto en la temperatura ambiente.

Los muchachos de la universidad de Tokio crearon las partículas del compuesto tan pequeño como cinco nanómetros de diámetro, a ser usado en este tamaño en un DVD, el óxido de titanio haría posible de empacar 1,000 veces la información que puede ser almacenada en un disco Blu-ray (un Blue-ray puede almanecer hasta 25GB ) en un solo DVD. El profesor ya planea hablar con las compañias sobre la technologia, pero al verse el internet cada dia mas rapido y con mas ancho de banda puede ser que ocasione una dificultad a la comercializacion del mismo.

Sustrido del texto de Dan Hope, TechNewsDaily Staff Writer
http://www.technewsdaily.com/dvd-capacity-1000x-0611/

sábado, 15 de mayo de 2010

Ya se acabo el preguntar cuando estás perdido



Que agobiante es cuando vas a una nueva ciudad o sales en tu propio país y no sabes dónde estas, y el carro lo dejaste en la casa por lo tanto no tendras tu GPS, bueno si eres una de esas personas se acabaron tus problemas porque la empresas de GPS (Global Positioning System) y los celulares inteligentes han desarrollado un nuevo software para que tu gps lo tengas en tus manos.

No solo te apunta y te dirrecciona hacia donde vas sino que tambien te lo dice hablado aparte de por mensaje en tu celular, claro esta que tener este servicio cuesta, al mismo tiempo que no son todos los celulares que lo pueden tener, pero esto es algo que con el tiempo sera normal en todos los celulares. Tambien se esta desarrollando un software para tener tu gps subterráneo y marcar el tiempo de los metros al llegar e irse de las paradas para que los usuario tengan mejor precision en su día.

Nueva Tv con Interenet

¿Recuerdas antes cuando tenias que agarrar una percha e introducirla por cualquier hueco detrás del televisor solo para poder ver una señal? Ehmmmm si eso creo, bueno todo eso a quedado pero muy atras ahora siendo la una de las última tecnologias tener internet en tu televisor, ahora podras descargar peliculas, ver tu facebook, twitter, hotmail o cualquier otra cuenta y regresar justo a tiempo para seguir obeservando tu serie o programa favorito.

Es una tecnologia que esta siendo introducida con todas las marcas de televisores, puesto que todas quieren estar a la vanguardia de la tecnologia. Entonces ya lo sabes al comprar tu nuevo televisor pregunta si trae internet.



Sustraido del texto de David Katzmaier
http://reviews.cnet.com/2795-6482_7-352.html?tag=rtcol

¿ Ipad ayudando a la pirateria de libros ?




Sucede que que con los avances tecnológicos y con la red creciendo cada vez mas, todo lo que conocemos y hacemos se esta volviendo digital escuchar música, ver películas, incluso hasta leer libros. Este último punto de leer libros por medio de la red estaba siendo conversado con Scott Turow el mejor autor de suspenso norteamericano el cual comentaba que las bajas en los libros fisicos se ha notado desde que se ha creado los e-books medio por el cual el usuario puede leer libros en la red.

Otro punto que enfocaba era que los libros en la red aveces aparecian mas baratos lo cual no mostraba beneficio para el autor, pero el mayor punto donde hacia hincapié era el de que los libros estaban siendo comenzados a hacer piratiados y esto era gracias al impulso del nuevo dispositivo del Ipod el Ipad el cual trae permite facilmente descargar los libros en archivo PDF y luego, otro usuario por un torrent descargarlo. Se ha visto el incremento de descargas de e-books en los últimos meses lo que afecta a los autores. Este software de poder navegar y buscar el libro deseado y automaticamente descargarlo aveces sin pagar nada a reducido la venta de libros.




2009 Rodriguez Time - Powered by Blogger
Blogger Templates by Deluxe Templates
Wordpress theme by Dirty Blue