lunes, 24 de abril de 2017

APRENDER A PROGRAMAR

INTRODUCCIÓN
 
Aunque pueda parecer extraño, buena parte de los quebraderos de cabeza a los que nos enfrentamos programando derivan de no saber bien lo que queremos hacer. Esto responde al siguiente esquema:
 

Este sistema es posible pero muy poco recomendable ya que equivale a:
 
 
Lo cual implica, simplemente, comenzar una tarea sin la preparación necesaria. En el ejemplo del edificio sólo en situaciones de extrema sencillez (por ejemplo levantar un cuarto) el resultado será satisfactorio. En el resto de los casos la falta de método llevará a defectos o colapsos debido a la ausencia de proyecto, planos, cálculos, etc.
 
No podemos pretender desarrollar un programa simplemente en base a ideas, intuiciones, nociones. Necesitaremos método y esquemas claros que raramente estarán en nuestra cabeza. Necesitarán de un trabajo de desarrollo.
 
El buen programador, al igual que el buen proyectista en arquitectura, ha de tener claros cuáles son los pasos a ir dando para desarrollar una construcción sólida. La precipitación, la falta de reflexión o las prisas por terminar son malas consejeras.
 
Cada programador tiene sus propios esquemas de trabajo, pero en líneas generales podemos distinguir las siguientes fases en el desarrollo de un programa:
 


CONOCER EL PROBLEMA A RESOLVER
Como primer paso a la hora de desarrollar un programa tenemos "conocer el problema a resolver". Necesitaremos un conocimiento profundo de todos los aspectos relacionados con el problema, lo cual implica saber responder las siguientes preguntas:
 
1.     ¿Cuál es mi objetivo?
2.     ¿Cuáles son los condicionantes que afectan al problema?
3.     ¿Qué método o esquema de resolución voy a aplicar?
4.     ¿Cuáles son los datos de partida?
5.    ¿Qué resultado quiero obtener?
 
 
 
SOBRE EL OBJETIVO
 
A la hora de plantear un objetivo trataremos de subdividir la extensión y complejidad del problema hasta niveles lo más fácilmente abarcables por una persona, según la conocida estrategia del "divide y vencerás".
 
Aunque será la experiencia la que mejor nos guíe a la hora de plantear objetivos podemos usar esta regla: "Sólo trataremos de programar aquello que mentalmente somos capaces de abarcar en método, extensión y condicionantes".
 
Ejemplo: Supongamos que trabajamos en el sector de logística y almacenamiento de combustibles y venimos haciendo diversos cálculos manuales relativos a determinación de volúmenes de depósitos. Por cambios productivos se empiezan a instalar depósitos de formas geométricas muy diversas y decidimos programar para obtener volúmenes.
 
Posibles planteamientos de objetivos:
 
a)    Desarrollar un programa para el cálculo de volúmenes para cualquier forma de depósito contenedor de un líquido.
 
Comentarios: incumplimos la premisa de plantear algo que mentalmente seamos capaces de abarcar. Lo planteado posiblemente se puede programar, pero al nivel en que nos encontramos (somos programadores individuales y no expertos) el objetivo resultaría inalcanzable. Entre otras cosas por la gran cantidad de formas regulares (esferas, elipsoides, pirámides, conos, cuñas, paraboloides, hiperparaboloides, etc.) que en el caso de las irregulares o combinaciones entre irregulares se tornan en infinitas posibilidades. Los datos de partida y los métodos resultarían de extensión y complejidad inabarcable.




Fuente: aprenderaprogramar

miércoles, 17 de septiembre de 2014

WHATSAPP




WhatsApp es una aplicación de mensajería de pago para enviar y recibir mensajes mediante Internet, complementando servicios de correo electrónico, mensajería instantánea, servicio de mensajes cortos o sistema de mensajería multimedia. Además de aprovechar la mensajería en modo texto, los usuarios pueden crear grupos y enviarse mutuamente, imágenes, videos y grabaciones de audio.

La aplicación está disponible para los sistemas operativos iOS,1 2 Android, Windows Phone, BlackBerry OS, Symbian, y Asha (antes llamado S40) de Nokia.3 No existen versiones para Windows, Mac, Linux o como web-app. 

Sin embargo, emuladores de Android para PC permiten ejecutar WhatsApp en Windows,4 Mac, Linux o un Navegador web.5


La aplicación fue creada en enero de 2009, y su segunda versión ―de junio de 2009― logró tener 250 000 usuarios.


El 21 de enero de 2014, Whatsapp alcanzó la cifra de 54 000 millones de mensajes circulando en un solo día.

El 19 de febrero de 2014 la aplicación fue comprada por la empresa Facebook por 19 000 millones de dólares (de los cuales 12 000 millones corresponden a acciones de Facebook y el resto en efectivo).6

En abril de 2014, el número de usuarios había alcanzado los 600 millones. 

Se envían 700 millones de fotos y 100 millones de vídeos cada día.7


Historia

WhatsApp es un juego de palabras basado en la expresión en inglés «What’s up?», cuyo significado se asemeja a ‘¿qué hay?’, ‘¿qué pasa?’, o ‘¿cómo te va?’. La empresa creadora de la aplicación, WhatsApp Inc., fue fundada en 2009 por Jan Koum (quien había llegado desde Ucrania a Estados Unidos a principios de los años noventa hablando muy poco inglés), quien había sido anteriormente el director del equipo de operaciones de plataforma de Yahoo! y el antiguo jefe del equipo de ingenieros Brian Acton.8 La compañía tiene su sede en Silicon Valley.9

Por otro lado, WhatsApp Inc. ha recibido inversiones por valor de 10 millones de dólares por parte de la empresa Sequoia Capital.8 WhatsApp fue retirado de la AppStore el 14 de enero de 2012 durante cuatro días, según algunos por fallos de seguridad. Esto ha sido desmentido por Brian Acton.10

En marzo de 2013 Whatsapp anunció que la versión para Android, que fue gratuita desde su creación, sería de pago por el primer uso; luego de 365 días de uso es forzoso volver a pagar para extender el uso del programa por otro año. Esto ha llevado a un progresivo declive de Whatsapp a favor de otros competidores, en los países donde la plataforma Android es dominante pero el concepto de pagar por servicios de Internet y apps es inexistente. 

El 19 de febrero de 2014, Mark Zuckerberg ―el creador de Facebook― anunció en su perfil personal la compra de la aplicación móvil Whatsapp por una suma de 19 000 millones de dólares y aclaró que compró la aplicación para que haya más usuarios en Facebook.

El 22 de febrero de 2014 presentó fallos a nivel mundial, los responsables de WhatsApp reconocían la caída del servicio en una cuenta de Twitter dedicada a informar de posibles fallos en la aplicación, @wa_status. «Lo sentimos, estamos experimentando problemas con los servidores. Esperamos estar recuperados y activos pronto». 

Una hora después de registrarse el inconveniente, la aplicación Telegram, informó también de una sobrecarga en su sistema, tras haber recibido «100 nuevos registros en el servicio por segundo». El día 2 de abril se presentó otro de estos fallos. 

El día 25 de mayo de ese mismo año, a las 19 h se produjo un fallo a corto plazo que volvía a dejar a los usuarios sin servicio durante algo más de una hora.


Especificaciones técnicas

Whatsapp utiliza una versión personalizada del protocolo abierto Extensible Messaging and Presence Protocol. Al ser instalado crea una cuenta de usuario utilizando su número de teléfono como nombre de usuario (Jabber ID: [número de teléfono]@s.whatsapp.net). 

La versión de Android usa un hash MD5 del IMEI invertido como contraseña, y la versión de iOS un hash MD5 de la dirección MAC del teléfono duplicada.

Los mensajes de imagen, audio o video se envían subiendo dicho contenido a un servidor HTTP y enviando un enlace al mismo, junto a una miniatura codificada en Base64 (si es aplicable).14

WhatsApp se sincroniza con la agenda del teléfono, por lo que no es necesario para los usuarios agregar contactos en una agenda separada. Como todos los usuarios son registrados con su número de teléfono, el software lista todos los usuarios de WhatsApp entre los contactos automáticamente.15

WhatsApp contra los SMS

 

El SMS es un sistema de mensajería más antiguo, con menor grado de funcionalidad, un número de caracteres limitado (entre 140 y 160) y un costo elevado. 

Sin embargo los SMS siempre están disponibles, ya que la red de GSM es mucho más extensa comparado con las tarifas de datos 3G o mediante conexión Wi-Fi.

 Además el estándar SMS no requiere smartphones o softwares propietarios instalables, incluso un Nokia 1100 recibe y envía SMS enviados por los smartphones más modernos.

El propósito de WhatsApp Messenger es brindarle mayor número de esas funcionalidades de las que carecen los SMS y de forma gratuita, dependiendo del plan de datos contratado por el usuario.

Una funcionalidad del programa es que, al estar vinculado al número de teléfono16 del usuario, automáticamente posibilita que todos los contactos que tiene el usuario en su terminal aparezcan listados, abarcando así todos los contactos posibles.

Desde la caída de WhatsApp el día sábado 22 de febrero del año 2014 hubo un aumento considerable en descargas de diversas aplicaciones similares como lo son Telegram, Line, entre otras.

Cuestiones de seguridad

 

En mayo de 2011 se informó de un fallo de seguridad en WhatsApp que dejó las cuentas de los usuarios expuestas a robo. Según algunas fuentes, se cree que esta modificación fue realizada, y más tarde reparada, gracias a Liroy van Hoewijk, directivo de CorelSP.net que ayudó a WhatsApp a reproducirla en Android y Symbian.

Desde mayo de de 2011 se ha informado de que las comunicaciones mediante WhatsApp no están encriptadas y los datos se reciben en texto plano, lo que significa que los mensajes pueden leerse fácilmente si se dispone de los paquetes enviados. En mayo de 2012, investigadores expertos en seguridad publicaron que tras las nuevas actualizaciones, WhatsApp ya no enviaba los mensajes en texto plano.

En septiembre de 2011 salió una nueva versión de la aplicación WhatsApp Messenger para iPhones. En esta nueva versión la empresa desarrolladora ha cerrado cierto número de agujeros críticos de seguridad que permitían enviar mensajes falsos y que los mensajes enviados desde cualquier usuario de WhatsApp se pudieran leer.

El 6 de enero de 2012 un hacker desconocido publicó un sitio de internet (WhatsAppStatus.net) que permitía cambiar el estatus de cualquier usuario de WhatsApp del que se conociera el número de teléfono. 

Para hacerlo funcionar sólo se precisaba reiniciar la aplicación. Según el hacker este es sólo uno de los asuntos preocupantes de la seguridad en WhatsApp. El 9 de enero de 2012, WhatsApp informó de que había implementado una solución definitiva. En realidad, la única medida que se tomó fue la de bloquear la dirección IP del sitio. Como respuesta se puso a disposición para su descarga una herramienta para Windows que facilitaba la misma funcionalidad.

 Este problema no se ha solucionado hasta ahora. La primera notificación del problema fue recibida por WhatsApp en septiembre de 2011.

El 13 de enero de 2012, WhatsApp fue retirado del App Store. No se reveló la razón. La aplicación se volvió a incluir cuatro días después.

Usando WhatsAPI, el blog alemán The H demostró cómo tomar cualquier cuenta de WhatsApp el 14 de septiembre de 2012.17 WhatsApp Inc. respondió con una amenaza legal a los desarrolladores de WhatsAPI, forzándolos a dar de baja el código fuente.18

En febrero de 2014 el director de la oficina alemana de regulación de la privacidad, Thilo Weichert, desaconsejó el uso de WhatsApp por no estar sujeto a la legislación europea en materia de seguridad y privacidad de la información, quedando desprotegidos los datos de los usuarios.19

Aplicaciones similares

 






 Fuente: Wikipedia

miércoles, 27 de agosto de 2014

BATCH PROCESSING



Características

Los sistemas de procesamiento por lotes son el mecanismo más tradicional y antiguo de ejecutar tareas. Se introdujeron alrededor del año 1956 para aumentar la capacidad de proceso de los programas. En la actualidad, los trabajos por lotes son ampliamente utilizados en supercomputadores, como Magerit. Este procesamiento se dio en la segunda generación de computadoras.
El extremo opuesto al procesamiento por lotes es el procesamiento interactivo: programas que precisan la interacción con el usuario (petición de datos, elección de opciones) para funcionar. Cada tipo de proceso es diferente y más adecuado en unas situaciones que en otras.
En un sistema por lotes existe un gestor de trabajos, encargado de reservar y asignar los recursos de las máquinas a las tareas que hay que ejecutar. De esta forma, mientras existan trabajos pendientes de procesamiento, los recursos disponibles estarán siempre ocupados ejecutando tareas.
Si el sistema está bien planificado, se alcanzan tiempos de ejecución muy cortos, ya que los recursos disponibles están siendo utilizados casi continuamente. Además, el Sistema Operativo puede ser muy simple ya que las tareas son completamente secuenciales por lo que se reduce la necesitad de utilizar esquemas Round Robin o similares.
  • Ventajas:
    • Permite compartir mejor los recursos de un ordenador entre muchos usuarios, al no competir por éstos de forma inmediata.
    • Realiza el trabajo en el momento en el que los recursos del ordenador están menos ocupados, dando prioridad a tareas interactivas.
    • Evita desaprovechar los recursos del ordenador sin necesidad de interacción y supervisión humanas continuas.
    • En ordenadores caros o supercomputadores, ayuda a amortizar el coste manteniendo altos índices de utilización.
  • Inconvenientes:
    • El principal inconveniente de la ejecución por lotes frente a la ejecución interactiva es que hay que conocer y planificar cuidadosamente la tarea a realizar. Al carecer de supervisión por parte del usuario, cualquier tipo de error puede producir resultados inútiles o, simplemente, inexistentes...

Programas batch

Algunos programas conocidos que pueden funcionar en modo por lotes: GIMP (GNU Image Manipulation Program),1 R-project, gnuplot, GNU Octave, command.com, EXEC II, entre otros muchos.
Realmente, casi cualquier programa puede ejecutar en modo batch, siempre y cuando pueda especificarse los distintos pasos de ejecución o las entradas de usuario a partir de un script.
Es importante no confundir el procesamiento por lotes con los programas o archivos .bat de los sistemas batch (de los cuales heredan su nombre debido a su metodología). Como bien está explicado más arriba, estos archivos se ejecutan de manera secuencial, y cerrando la ejecución al usuario ya que este no puede interactuar ni intervenir en el programa que se ejecuta.
Frente a este tenemos los 'Sistemas por batch', los cuales son una manera de llevar a cabo el proceso de la información, en lenguaje llano, una manera de hacer informática, en estos sistemas los programas y tareas se ejecutan de manera secuencial, no porque el programa lo exija como es el caso de los .bat, sino porque no conocía otra forma de ejecución.

ATOM




El nombre Atom hace referencia a dos estándares relacionados.
  • El Formato de Redifusión Atom es un fichero en formato XML usado para Redifusión web.
  • mientras que el Protocolo de Publicación Atom (resumido en Inglés AtomPub o APP) es un protocolo simple basado en HTTP para crear o actualizar recursos en Web.
Las fuentes web permiten que los programas busquen actualizaciones del contenido publicado en un sitio Web. Para crear uno el propietario de un sitio Web puede usar software especializado, como un Sistema de gestión de contenido que publica una lista (o fuente web) de artículos recientes en un formato estándar, legible por máquinas. La fuente web puede ser descargada por sitios web que redifunden el contenido usando la fuente web, o por un agregador que permiten que los lectores en Internet se suscriban y vean los contenidos de la fuente web.
Una fuente web puede contener entradas, que pueden ser encabezados, artículos completos, resúmenes y/o enlaces al contenido de un sitio web.
El formato Atom fue desarrollado como una alternativa a RSS. Ben Trott fue uno de los defensores del nuevo formato que llegó a llamarse Atom. Él notó la incompatibilidad entre algunas versiones del protocolo RSS, ya que pensaba que los protocolos de publicación basados en XML-RPC no eran lo suficientemente interoperables.
Los proponentes del nuevo formato organizaron el grupo de trabajo IETF Atom Publishing Format and Protocol. El formato de redifusión ATOM fue publicado como un "estándar propuesto" de la IETF en el RFC 4287, y el protocolo de comunicación se publicó como RFC 5023

miércoles, 9 de julio de 2014

ULTRA ALTA DEFINICIÓN









Ultra Hi-Vision (en español: vídeo de ultra alta definición), también conocido como UHDTV (siglas en inglés de Ultra High Definition TeleVision) y UHDV (siglas en inglés de Ultra High Definition Video), se refiere a un formato de vídeo digital, actualmente propuesto por la NHK de Japón.
 
La tecnología UHDV proporciona una imagen cuya resolución es 16 veces superior a la alta definición (1280×720), y hasta 75 veces superior al sistema PAL (720x576).
La tecnología UHDTV cuenta con 7680 píxeles por línea horizontal y 4320 píxeles por columna vertical (resolución de 7680x4320), es decir, más de 33 millones de píxeles. Comparada con las 1080 píxeles por columna vertical del HDTV y sus poco más de dos millones de píxeles, mejora en dieciséis veces la nitidez de la imagen y también la experiencia con los nuevos sistemas digitales de entretenimiento, como las consolas de videojuegos.

Características

Vídeo

18 minutos de vídeo UHDV sin comprimir ocupan alrededor de 3,5 terabytes, y un solo minuto alrededor de 194 gigabytes (siendo así aproximadamente 25 terabytes de almacenamiento para 2 horas). Si el vídeo de HDTV (1920×1080p60) tiene un bitrate de 60 Mbit/s usando la compresión MPEG-2, entonces un vídeo que es 4 veces la cantidad de píxeles, a lo alto y a lo ancho, requerirá un bitrate 16 veces superior a esa cantidad, lo que llevaría a 100 Gb para 18 minutos de UHDV o 6 Gb por minuto.
Si se implementaran los códecs H.264 (MPEG-4 AVC) o VC-1 se llegaría a usar solamente la mitad del bitrate de MPEG-2, lo que se traduce en 50 Gb por cada 18 minutos de UHDV, o 3 Gb por minuto (suponiendo que fuera una compresión lineal, cuando en realidad es un tanto estocástico, lo que quiere decir que es un bitrate exagerado y serían más que aceptables los resultados a tasas de compresión mucho más bajas). Esto supone que la tecnología actual es incapaz de manejar la ultra definición y se estima que en 15 años aparecerán prototipos compatibles.

Sonido

El futuro televisor UHDV estará provisto de un sonido 22.2, (10 altavoces a nivel medio, 9 a nivel superior, 3 a nivel bajo y 2 para los efectos bajos), claramente superior al 5.1 o 7.1 que existen en la actualidad.
Sin embargo, pasará algún tiempo antes de que se pueda emplear esta tecnología a nivel doméstico, debido a que producir películas y demás contenido audiovisual será mucho más complejo. Los defectos se notarán a simple vista, y además el hardware y equipamiento que se deben utilizar para poder trabajar con este tipo de tecnología aún no están disponibles.

Cuestiones de almacenamiento

Todo lo anterior quiere decir que un Disco Holográfico Versátil de 12 cm con una separación de 3 micrones entre pistas (cada uno de 3,9 TB) podría almacenar alrededor de unas 11 horas de vídeo UHDV con MPEG-2 o 22 horas usando la compresión H264/VC1, comparado con los 18 minutos y medio de capacidad si esto no tuviera compresión.
De otro modo, usando un disco Blu-ray de 8 capas (con una capacidad total de 200 GB) se podría almacenar aproximadamente 36 minutos de vídeo UHDV con MPEG-2, o 72 minutos con H264/VC-1 (sin comprimir, sería apenas un minuto de UHDV). A 50 TB un PCD (protein-coated disc) podría almacenar unas 284 horas (~12 días) de vídeo UHDV con compresión H.264/AVC/VC-1, pero resultaría redundante dado que este medio podría contener 4 horas de vídeo UHDV sin comprimir. Una vez que se logre implementar materiales ferroeléctricos estabilizantes se podrían almacenar alrededor de 1024 horas de vídeo UHDV sin comprimir y 24.064 horas de vídeo UHDV con compresión H.264/AVC/VC-1.

Emisión digital en ultra alta definición

Actuamente solo hay un canal en UHD es TVE-4K, se emite solo en España en el operador de cable Canal +.

Historia

2003

Dada su naturaleza experimental, NHK tuvo que construir el equipo desde cero. En la demostración de septiembre de 2003 usaron una batería de 16 grabadoras de HDTV para poder capturar la señal de prueba (que duraba 18 minutos).
La cámara utilizada fue construida a partir de 4 CCD de 64 mm cada uno, con una resolución total de 3840×2160. A partir de esta resolución emplearon el pixel shifting (corrimiento de píxel) para aumentar la imagen capturada a 7680 × 4320.1

2005

Expo 2005

El sistema fue demostrado en la Expo 2005 de Aichi, Japón.

Noviembre

En noviembre de 2005 NHK demostró una transmisión en vivo de un programa en Super Hi-Vision (UHDV) sobre una red de 260 km de fibra óptica. Usando la multiplexación por división en longitudes de onda densas (DWDM), alcanzó una velocidad de 24 gigabits a través de 16 señales (de longitudes de onda o wavelengths) distintas.

2006

NAB-Electronic Media Show

El sistema UHDTV fue demostrado en el NAB-Electronic Media Show en el año 2006.2

International Broadcasting Convention

El sistema UHDTV fue demostrado en el International Broadcasting Convention en el año 2006, en la ciudad de Ámsterdam, Holanda, y fue publicado en el Broadcast Engineering e-newsletter.

2007

El sistema UHDTV fue demostrado en la ciudad de Las Vegas.

2012

El primer modelo comercial llegó a Estados Unidos en octubre de 2012.3

2013

Dragon Ball Z: Battle of Gods es la primera película japonesa en proyectarse en Ultra Alta Definición y con la tecnología IMAX, solamente en Japón.

Tecnologías relacionadas

HDTV

Artículo principal: Televisión de alta definición
HDTV (siglas en inglés de High Definition Television, televisión de alta definición en español) es uno de los formatos que, junto a la televisión digital (DTV), se caracterizan por emitir señales televisivas en una calidad digital superior a los sistemas tradicionales analógicos de televisión en color (NTSC, SECAM, PAL).

Fabricantes

LG

LG presentó en la Feria Internacional de Electrónica CES 2014 cinco nuevos equipos de TV Ultra HD de entre 55” y 77”.
Una de esas presentaciones fue el LG 77EC9800, con pantalla OLED curva de 77” el cual cuenta con una resolución 4K Ultra HD (3840 x 2160 pixeles) que permite al televidente tener una mejor perspectiva visual. El televisor ganó el premio “Lo Mejor de las Innovaciones” de CES 2014.4
Además, el 27 de mayo presentó su nuevo móvil con pantalla uHD: el LG G3

Toshiba

El 6 de enero de 2014 en la Feria Internacional de Electrónica CES, Toshiba presentó nuevos televisores Ultra HD de entre 32" y 65" y los primeros portátiles con pantalla Ultra HD, el Satellite P50t-B para la gama de consumo y el Tecra W50 para el mercado profesional. 5
Con estos portátiles ya es posible interactuar en esta resolución, por ejemplo con juegos, edición de imagen y vídeo.

Red one

La compañía Red Digital Cinema Camera presume de que su cámara captura a Ultra Alta Definición, a pesar de que su resolución máxima es de 2540p (un poco más que el estándar Digital Cinema 4k de 4096×2160; véase imagen).

Samsung

El teléfono móvil Galaxy Note 3 de la compañía coreana cuenta con una cámara con capacidades de vídeo 4k (2160p).
 


domingo, 5 de enero de 2014

CABLE MODEM





Un cable módem es un tipo especial de módem diseñado para modular la señal de datos sobre una infraestructura de televisión por cable. Cuando se habla de Internet por cable, se hace referencia a la distribución del servicio de Internet a través de esta infraestructura de telecomunicación. El cablemódem es utilizado principalmente para distribuir acceso a Internet de banda ancha aprovechando el ancho de banda que no se utiliza en la red de TV por cable.
Los abonados al servicio en un mismo vecindario comparten el ancho de banda proporcionado por una única línea de cable coaxial, esto puede limitar la velocidad de conexión dependiendo de cuanta gente esté usando el servicio al mismo tiempo.

SPIDER





Programa que recorre la WWW y recoge páginas web, visitando los enlaces que tiene de forma automática. Suelen utilizarlo los grandes buscadores para dar de alta (indexar) las páginas y luego poder buscar en ellas.
Otros nombres: Robot-Web, araña, bot, web crawler

Es un tipo de agente de software; cada spider provee su propio user-agent.

Algunos nombres (user-agent) de spiders populares son:

• Scooter (de Altavista)

• Slurp (de AOL)

• ArchitextSpider (de Excite)

• Googlebot (de Google)

• Lycos (de Lycos)

• Yahoo Slurp (de Yahoo!)

• MSNBot (de MSN)

Existen spider con propósitos ilegales como los spambots.

OCR





(Optical character recognition). Tipo de software que se encarga de reconocimiento óptico de caracteres. Se encarga de extraer de una imagen los caracteres de un texto y los guarda en un formato que pueda editarse como texto. Sirve para, por ejemplo, guardar en forma de texto imágenes escaneadas de un libro sin pasarlo a mano, o sea, tipear caracter por caracter en un editor de texto. Los softwares son relativamente fiables aunque suelen fallar si las imágenes o las letras no son claras.
Es un tipo de reconocimiento como lo son el reconocimiento de voz, el reconocimiento de marcas (OMR), reconocimiento de escritura, etc.

INTERACTIVIDAD




En dispositivos, sistemas y programas, interactividad hace referencia la interacción (a modo de diálogo) entre la máquina y el usuario.
La interactividad de un dispositivo es independiente de su aspecto visual y sus procesos internos.

En tanto, la interactividad en la computación, hace referencia a los programas que aceptan y responden entradas en datos y comandos por parte de los humanos. 

La interactividad está muy relacionada a la interfaz de un programa.

lunes, 9 de diciembre de 2013

COMIENZOS DE LA COMPUTACIÓN - HISTORIA







HISTORIA DE LA COMPUTACIÓN

 

 

 

 

 

 

 

Uno de los primeros dispositivos mecánicos inventados por el ser humano para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones Griega y Romana. 

Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular. 

Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos

A este dispositivo no se le puede computadora por carecer del elemento fundamental llamado programa.


Monografias.com
Monografias.com


Otro de los inventos hechos por el hombre en su afán de mejorar el cálculo fue la Pascalina inventada por Blaise Pascal (1623 - 1662) de Francia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania

Con estas máquinas, los datos se representaban mediante las posiciones de los engranajes y los datos se introducían manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un automóvil.


Pascalina
Monografias.com


La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. 

La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. 

 En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas.


Monografias.com


Mientras tanto Charles Jacquard (francés), fabr icante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. 

Al enterarse de este método Babbage abandonó la máquina de diferencias y se dedicó al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. 

La tecnología de la época no bastaba para hacer realidad sus ideas. 

El mundo no estaba listo, y no lo estaría por cien años más.

Monografias.com


En 1944 se construyó en la de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. 

Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores.


Monografias.com

En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. 

Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléct rica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo.


Monografias.com

El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático húngaro John von Neumann (1903 - 1957). 

Las ideas de von Neumann resultaron tan fundamentales para su desarrollo posterior, es considerado el padre de las computadoras.

La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. 

Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos.

La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como en la ENIAC.

Todo este desarrollo de las suele divisarse por generaciones y el criterio que se determinó para determinar el cambio de generación no está muy bien definido, pero resulta aparente que deben cumplirse al menos los siguientes requisitos:

· La forma en que están construidas.

· Forma en que el ser humano se comunica con ellas.

Von Neumann
Monografias.com




EDVAC
Monografias.com


Primera Generación

En esta generación había un gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos.

Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. 

Estas máquinas tenían las siguientes características:

· Estas máquinas estaban construidas por medio de tubos de vacío.

· Eran programadas en lenguaje de máquina.

En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares).


Monografias.com
Monografias.com


En 1951 aparece la UNIVAC (Universal Computer), fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los Estados Unidos.

En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machines).

Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957.

Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado.

La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. 

Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.

Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105.





Segunda Generación


Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. 

También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas.


Las características de la segunda generación son las siguientes:

· Están construidas con circuitos de transistores.

· Se programan en nuevos lenguajes llamados lenguajes de alto nivel.

En esta generación las computadoras se reducen de tamaño y son de menor costo. 

Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.

Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. 

Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración

El final de la información no tenía contacto directo con las computadoras. 

Esta situación en un principio se produjo en las primeras computadoras personales, pues se requería saberlas "programar" (alimentarle instrucciones) para obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen número de horas escribiendo instrucciones, "corriendo" el programa resultante y verificando y corrigiendo los errores o bugs que aparecieran. 

 Además, para no perder el "programa" resultante había que "guardarlo" (almacenarlo) en una grabadora de casette, pues en esa época no había discos flexibles y mucho menos discos duros para las PC; este procedimiento podía tomar de 10 a 45 minutos, según el programa. 

El panorama se modificó totalmente con la aparición de las computadoras personales con mejores circuitos, más memoria, unidades de disco flexible y sobre todo con la aparición de de aplicación general en donde el usuario compra el programa y se pone a trabajar. 

 Aparecen los programas procesadores de palabras como el célebre Word Star, la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la a la mañana cambian la imagen de la PC. 

El software empieza a tratar de alcanzar el paso del hardware. 

Pero aquí aparece un nuevo elemento: el usuario.


El usuario de las computadoras va cambiando y evolucionando con el tiempo. 

De estar totalmente desconectado a ellas en las máquinas grandes pasa la PC a ser pieza clave en el diseño tanto del hardware como del software

Aparece el concepto de human interface que es la relación entre el usuario y su computadora. 

Se habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. 

Con respecto al software se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo capacitándose y entrenándose y más tiempo produciendo. 

Se ponen al alcance programas con menús (listas de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios expertos); otros programas ofrecen toda una artillería de teclas de control y teclas de funciones (atajos) para efectuar toda suerte de efectos en el trabajo (con la consiguiente desorientación de los usuarios novatos). 

Se ofrecen un sin número de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas comerciales. 

Pero el problema "constante" es que ninguna solución para el uso de los programas es "constante". 

Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos menús. 

Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del equipo y de la potencia de los programas. 

Hace falta una relación amistosa entre el usuario y la PC.

Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315.

La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos administrativos y comerciales. 

Después salió al mercado la RCA 601.




Tercera Generación


Monografias.com

Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras

Se inaugura con la IBM 360 en abril de 1964.3

Las características de esta generación fueron las siguientes:

· Su fabricación electrónica está basada en circuitos integrados.

· Su manejo es por medio de los lenguajes de control de los sistemas operativos.

La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones).

El sistema operativo de la serie 360, se llamó OS que contaba con varias config uraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares.

En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida.

En la década de 1970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite son los modelos 1108 y 1110, máquinas en gran escala; mientras que CDC produce su serie 7000 con el modelo 7600. 

Estas computadoras se caracterizan por ser muy potentes y veloces.

A finales de esta década la IBM de su serie 370 produce los modelos 3031, 3033, 4341.

Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000. Honey - Well participa con su computadora DPS con varios modelos.

A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa también, gran sistema), pero disponen de gran capacidad de procesamiento.

Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra

En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones.



Cuarta Generación


Monografias.com

Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. 

Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. 

Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática".

En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM y está por su parte es aún de las cinco compañías más grandes del mundo.

En 1981 se vendieron 80000 computadoras personales, al siguiente subió a 1 400 000. 

Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes.

Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han tenido un considerable avance, porque han hecho m ás interactiva la comunicación con el usuario. 

Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc.

También las industrias del Software de las computadoras personales crece con gran rapidez, Gary Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft).

No todo son microcomputadoras, por supuesto, las minicomputadoras y los grandes sistemas continúan en desarrollo. 

De hecho las máquinas pequeñas rebasaban p or mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria.

Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo.


Gary Kildall
Monografias.com




Quinta Generación



En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. 

 Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.

Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. 

Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:

· Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.

· Manejo de lenguaje natural y sistemas de inteligencia artificial.

El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.


ARQUITECTURA VON NEUMANN.

Las computadoras digitales actuales se ajustan al modelo propuesto por el matemático John Von Neumann. 

De acuerdo con él, una característica importante de este modelo es que tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados.

Monografias.com


Tradicionalmente los sistemas con microprocesadores se basan en esta arquitectura, en la cual la unidad central de proceso (CPU), está conectada a una memoria principal única (casi siempre sólo RAM) donde se guardan las instrucciones del programa y los datos. 

A dicha memoria se accede a través de un sistema de buses único (control, direcciones y datos).


Monografias.com


En un sistema con arquitectura Von Neumann el tamaño de la unidad de datos o instrucciones está fijado por el ancho del bus que comunica la memoria con la CPU. 

Así un microprocesador de 8 bits con un bus de 8 bits, tendrá que manejar datos e instrucciones de una o más unidades de 8 bits (bytes) de longitud. Si tiene que acceder a una instrucción o dato de más de un byte de longitud, tendrá que realizar más de un acceso a la memoria.

El tener un único bus hace que el microprocesador sea más lento en su respuesta, ya que no puede buscar en memoria una nueva instrucción mientras no finalicen las transferencias de datos de la instrucción anterior.

Las principales limitaciones que nos encontramos con la arquitectura Von Neumann son:

· La limitación de la longitud de las instrucciones por el bus de datos, que hace que el microprocesador tenga que realizar varios accesos a memoria para buscar instrucciones complejas.

· La limitación de la velocidad de operación a causa del bus único para datos e instrucciones que no deja acceder simultáneamente a unos y otras, lo cual impide superponer ambos tiempos de acceso
Los ordenadores con arquitectura Von Neumann constan de las siguientes partes:

Monografias.com

La arquitectura Von Neumann realiza o emula los siguientes pasos secuencialmente:

1) Obtiene la siguiente instrucción desde la memoria en la dirección indicada por el contador de programa y la guarda en el registro de instrucción.

2) Aumenta el contador de programa en la longitud de la instrucción para apuntar a la siguiente.

3) Descodifica la instrucción mediante la unidad de control. Ésta se encarga de coordinar el resto de componentes del ordenador para realizar una función determinada.

4) Se ejecuta la instrucción. Ésta puede cambiar el valor del contador del programa, permitiendo así operaciones repetitivas.

5) Regresa al paso N° 1.

Conclusión:

* La mayoría de las computadoras todavía utilizan la arquitectura Von Neuma nn, propuesta a principios de los años 40 por John Von Neumann.

* La arquitectura Von Neumann describe a la computadora con 4 secciones principales: la unidad lógica y aritmética (ALU), la unidad de control, la memoria, y los dispositivos de entrada y salida (E/S).

* En este sistema, la memoria es una secuencia de celdas de almacenamiento numeradas, donde cada una es un bit, o unidad de información.

La instrucción es la información necesaria para realizar, lo que se desea, con la computadora. Las celdas contienen datos que se necesitan para llevar a cabo las instrucciones, con la computadora.

* El tamaño de cada celda y el número de celdas varía mucho de computadora a computadora, y las tecnologías empleadas para la memoria han cambiado bastante; van desde los relés electromecánicos, tubos llenos de mercurio en los que se formaban los pulsos acústicos, matrices de imanes permanentes, transistores individuales a circuitos integrados con millones de celdas en un solo chip.

ARQUITECTURA HARVARD.

 

La arquitectura Harvard proviene de la computadora Harvard Mark I, se encarga de almacenar instrucciones en cintas perforadas y los datos en interrupciones. 

Es la misma arquitectura de computadoras, posee dispositivos de almacenami ento que se encuentran separados físicamente para los datos y las instrucciones. 

Las partes principales de las computadoras es la memoria y la CPU, la primera guarda los datos y la CPU los procesa. 

A través de la memoria no solo se pueden manejar los datos sino también el lugar donde se encuentran almacenados, estos dos parámetros son de mucha importancia para la CPU. 

El CPU trabaja con mucha mayor velocidad que las memorias con las que trabaja. 

Para que la memoria valla más rápida se aconseja suministrar una pequeña memoria llamada caché que es muy rápida. 

Se pueden conseguir memorias con más velocidad pero estas poseen un alto precio

Si los datos están en la caché rendirán mucho más tiempo, pero si la caché tiene que obtener los datos a través de la memoria principal estos no perduraran mucho. 

La arquitectura Harvard permite que los datos y las instrucciones se almacenen en chaches separados para obtener mejor rendimiento. 

Se utiliza en procesadores de señal digital (DSP), que son utilizados en productos para procedimiento de video y audio.

Monografias.com



Monografias.com