martes, 27 de enero de 2015
lunes, 26 de enero de 2015
sábado, 24 de enero de 2015
HISTORIA DE LA TELEVISION
Televisión
«Tv» redirige aquí. Para otras acepciones, véase Tv (desambiguación).
La televisión es un sistema para la transmisión y recepción de
imágenes en movimiento y sonido a distancia que emplea un mecanismo de
difusión. La transmisión puede ser efectuada por medio de ondas de radio, por redes de televisión por cable, televisión por satélite o IPTV, de los que existen en modalidades abierta y paga. El receptor de las señales es el televisor.La palabra «televisión» es un híbrido de la voz griega τῆλε (tēle, «lejos») y la latina visiōnem (acusativo de visiō «visión»). El término televisión se refiere a todos los aspectos de transmisión y programación de televisión. A veces se abrevia como TV. Este término fue utilizado por primera vez en 1900 por Constantin Perskyi en el Congreso Internacional de Electricidad de París (CIEP).
La televisión es el medio de comunicación de masas por excelencia, de manera que la reflexión filosófica sobre ellos, se aplica a ésta.
El Día Mundial de la Televisión se celebra el 21 de noviembre en conmemoración de la fecha en que se celebró en 1996 el primer Foro Mundial de Televisión en las Naciones Unidas.
VERSIONES WINDOWS
Definición de sistema operativo Windows®
Es un conjunto de programas y archivos auxiliares desarrollados por la empresa Microsoft®, que permiten la interactividad entre el usuario y la computadora, comportándose como un intérprete entre el lenguaje humano y el lenguaje máquina. También se encarga de la administración de los dispositivos, así como la carga y ejecución de aplicaciones.
VERSIONES WINDOWS
Es un conjunto de programas y archivos auxiliares desarrollados por la empresa Microsoft®, que permiten la interactividad entre el usuario y la computadora, comportándose como un intérprete entre el lenguaje humano y el lenguaje máquina. También se encarga de la administración de los dispositivos, así como la carga y ejecución de aplicaciones.
La
empresa Microsoft® a través del tiempo ha creado distintas versiones de
sistemas operativos denominadas ventanas (Windows), acorde al momento tecnológico, ya
que es necesario que se adapte de manera correlacionada con el
Hardware del momento y los nuevos
programas que utiliza el usuario.
Hubo una discusión a mediados de los 90´s sobre el tema del sistema operativo Windows®; sobre si se trata
de un subsistema operativo ó un sistema operativo como tal. Esto porque
para la ejecución del sistema operativo Windows®, primeramente carga el
sistema operativo Ms-DOS® ó una versión del
mismo, sobre la cuál se termina de cargar el primero. Se muestran las
versiones mas comerciales a nivel doméstico empresarial y que son
representativas de cada una, es decir, como ejemplo, bajo la gama del
sistema operativo Windows® 98 hubo una segunda versión de sistema
operativo Windows® 98SE (Segunda edición).
A inicios de Octubre de 2014 se anuncia la presentación de la
versión
Preview del nuevo sistema operativo Microsoft® Windows, que
contrario a todo lo esperado, no se llamar Windows 9, sino Windows 10. A diferencia de
su antecesor Windows 8, ya contará desde su distribución con el botón de
inicio sin necesidad de una actualización. También se prevé que contará
con multi-escritorios, algo que es totalmente nuevo y que no se había
visto en versiones anteriores de la marca pero si en distribuciones de
Linux, además de corregir aquellas fallas que se encontraron en la versión
de Windows 8.
De igual manera que su antecesor, buscará estar enfocado a dar al usuario
una excelente experiencia de uso en pantallas táctiles (Smartphone
y Tablet),
se espera que la versión comercial de este sistema operativo se encuentre
disponible a mediados de 2015.
Acorde a las tendencias de la desaparición física de elementos como las
pantallas, teclados y ratones (mouse) y ser sustituidos virtualmente en
las pantallas
de las
Tablet y/o los Smartphone, Microsoft® se ha dedicado a
desarrollar su nueva interfaz de sistema operativo orientada a esta
tendencia, así mismo se conjuga con las nuevas tecnologías
USB 3.0 y las
versiones Portables ó portátiles como Windows® To Go, para poder utilizar las
características aunque no se encuentre la persona con su equipo personal
y sólo con un dispositivo
Pendrive USB en otra PC, así mismo ya
cuenta con el explorador de Internet Explorer® 10 y 11 en la versión del
sistema operativo Windows 8.1, la cuál acorde a los requerimientos de los
usuarios, ya cuenta con botón de inicio.
El logo
de Windows ha sido cambiado (Revisa
esta liga que explica un poco el tema), es un cambio radical
totalmente en el diseño y funcionalidad de los gráficos en pantalla, sin duda un excelente
competidor contra el actual popular sistema operativo Android™ de Google® y la interface
Gnome en Linux Ubuntu.
![]()
2.- Escritorio del
sistema operativo Windows® 8
|
Los requerimientos según
la página oficial de Microsoft® son:
+ Microprocesadores con
arquitectura 32 y 64 bits x-86, compatible con PAE, NX y SSE2
+ Memoria RAM: 1 Gb para 32 bits ó
2 Gb para 64 bits.
+ Resolución de pantalla de 1366 ×
768
+ Gráficos: GPU DirectX 9 con
Windows Display Driver Model (WDDM) 1.0
+ Disco duro: 16 Gb para 32
bits) y 20 Gb para 64 bits.
+ PC con ratón y
teclado y/o pantalla táctil certificada por la marca Microsoft® para mejorar la experiencia multi-Touch,
es importante mencionar que se indica lo siguiente: "Las versiones
de ensambladores de equipos de Windows® 8 requieren hardware
certificado para Windows® 8 para habilitar la funcionalidad táctil".
+ Para Windows® Touch y el uso de Tablet PCs requieren hardware específico.
Nota: el sistema operativo Windows® Server 2012 (Versión para
servidores) es la versión paralela al sistema operativo Windows® 8
(Versiones Domésticas-Empresariales)
|
HISTORIA DE LINUX
HISTORIA DE LINUX
LINUX es un sistema operativo, compatible Unix. Dos caracteristicas muy peculiares lo diferencian del resto de los sistemas que podemos encontrar en el mercado, la primera, es que es libre, esto significa que no tenemos que pagar ningun tipo de licencia a ninguna casa desarrolladora de software por el uso del mismo, la segunda, es que el sistema viene acompañado del codigo fuente. El sistema lo forman el nucleo del sistema (kernel) mas un gran numero de programas / librerias que hacen posible su utilizacion.
LINUX se distribuye bajo la GNU Public License: Ingles , por lo tanto, el codigo fuente tiene que estar siempre accesible.
El sistema ha sido diseñado y programado por multitud de programadores alrededor del mundo. El nucleo del sistema sigue en continuo desarrollo bajo la coordinacion de Linus Torvalds, la persona de la que partio la idea de este proyecto, a principios de la decada de los noventa.
Dia a dia, mas y mas programas / aplicaciones estan disponibles para este sistema, y la calidad de los mismos aumenta de version a version. La gran mayoria de los mismos vienen acompanados del codigo fuente y se distribuyen gratuitamente bajo los terminos de licencia de la GNU Public License.
En los ultimos tiempos, ciertas casas de software comercial han empezado a distribuir sus productos para Linux y la presencia del mismo en empresas aumenta rapidamente por la excelente relacion calidad-precio que se consigue con Linux.
Las plataformas en las que en un principio se puede utilizar Linux son 386-, 486-. Pentium, Pentium Pro, Pentium II/III/IV, Amiga y Atari, tambien existen versiones para su utilizacion en otras plataformas, como Alpha, ARM, MIPS, PowerPC y SPARC.
LINUX hace su aparicion a principios de la decada de los
noventa, era el año 1991 y por aquel entonces un estudiante de informatica de
la Universidad de Helsinki, llamado Linus Torvalds empezo, como una aficion y
sin poderse imaginar a lo que llegaria este proyecto, a programar las
primeras lineas de codigo de este sistema operativo llamado LINUX.
Este comienzo estuvo inspirado en MINIX, un pequeño sistema Unix desarrollado por Andy Tanenbaum. Las primeras discusiones sobre Linux fueron en el grupo de noticias comp.os.minix, en estas discusiones se hablaba sobre todo del desarrollo de un pequeño sistema Unix para usuarios de Minix que querian mas.
Linux nunca anuncio la version 0.01 de Linux (agosto 1991), esta version no era ni siquiera ejecutable, solamente incluia los principios del nucleo del sistema, estaba escrita en lenguaje ensamblador y asumia que uno tenia acceso a un sistema Minix para su compilacion.
El 5 de octubre de 1991, Linus anuncio la primera version "Oficial" de Linux, -version 0.02. Con esta version Linus pudo ejecutar Bash (GNU Bourne Again Shell) y gcc (El compilador GNU de C) pero no mucho mas funcionaba. En este estado de desarrollo ni se pensaba en los terminos soporte, documentacion, distribucion .....
Despues de la version 0.03, Linus salto en la numeracion hasta la 0.10, mas y mas programadores a lo largo y ancho de internet empezaron a trabajar en el proyecto y despues de sucesivas revisiones, Linus incremento el numero de version hasta la 0.95 (Marzo 1992). Mas de un año despues (diciembre 1993) el nucleo del sistema estaba en la version 0.99 y la version 1.0 no llego hasta el 14 de marzo de 1994.
La serie actual del nucleo es la 2.4.x y sigue avanzando dia a dia con la meta de perfeccionar y mejorar el sistema.
- Multitarea: La palabra multitarea
describe la habilidad de ejecutar varios programas al mismo tiempo.
LINUX utiliza la llamada multitarea preeventiva, la cual asegura que todos los programas que se estan utilizando en un momento dado seran ejecutados, siendo el sistema operativo el encargado de ceder tiempo de microprocesador a cada programa.
- Multiusuario: Muchos usuarios usando la misma maquina al mismo tiempo.
- Multiplataforma: Las plataformas en las que en un principio se puede utilizar Linux son 386-, 486-. Pentium, Pentium Pro, Pentium II,Amiga y Atari, tambien existen versiones para su utilizacion en otras plataformas, como Alpha, ARM, MIPS, PowerPC y SPARC.
- Multiprocesador: Soporte para sistemas con mas de un procesador esta disponible para Intel y SPARC.
- Funciona en modo protegido 386.
- Protección de la memoria entre procesos, de manera que uno de ellos no pueda colgar el sistema.
- Carga de ejecutables por demanda: Linux sólo lee del disco aquellas partes de un programa que están siendo usadas actualmente.
-Política de copia en escritura para la compartición de páginas entre ejecutables: esto significa que varios procesos pueden usar la misma zona de memoria para ejecutarse. Cuando alguno intenta escribir en esa memoria, la página (4Kb de memoria) se copia a otro lugar. Esta política de copia en escritura tiene dos beneficios: aumenta la velocidad y reduce el uso de memoria.
-Memoria virtual usando paginación (sin intercambio de procesos completos) a disco: A una partición o un archivo en el sistema de archivos, o ambos, con la posibilidad de añadir más áreas de intercambio sobre la marcha Un total de 16 zonas de intercambio de 128Mb de tamaño máximo pueden ser usadas en un momento dado con un límite teórico de 2Gb para intercambio. Este limite se puede aumentar facilmente con el cambio de unas cuantas lineas en el codigo fuente.
Linux es un sistema de libre distribución por lo que podeis
encontrar todos los ficheros/programas necesarios para su funcionamiento en
multitud de servidores conectados a Internet. La tarea de reunir todos los
ficheros/programas necesarios, asi como instalarlos en tu sistema, puede ser
una tarea bastante complicada y no apta para muchos. Por esto mismo, nacieron
las llamadas distribuciones de Linux, empresas que se dedican a hacer el
trabajo "sucio" para nuestro beneficio y comodidad.
Una distribución no es otra cosa, que una recopilación de programas y ficheros, organizados y preparados para su instalación. Estas distribuciones se pueden obtener a traves de Internet, o comprando los CDs de las mismas, los cuales contendrán todo lo necesario para instalar un sistema Linux bastante completo y en la mayoría de los casos un programa de instalación que nos ayudara en la tarea de una primera instalación. Casi todos los principales distribuidores de Linux, ofrecen la posibilidad de bajarse sus distribuciones, via FTP (sin cargo alguno).
Existen varias distribuciones creadas por diferentes empresas a unos precios bastantes asequibles (si se compran los CDs, en vez de bajársela via FTP), las cuales deberiais de poder encontrar en tiendas de informática o librerías. En El siguiente enlace teneis una lista con las empresas que distribuyen distribuciones en España y Centro/Sur américa. En el peor de los casos siempre podeis encargarlas directamente por Internet a las empresas que las crean. A veces, las revistas de informática sacan una edición bastante aceptable de alguna distribución.
Si vais a instalar el sistema por primera vez, os recomiendo haceros con una de estas distribuciones y en un futuro cuando querais actualizar el sistema con las últimas versiones y actualizaciones del núcleo y programas que utiliceis, usar Interne
Para muchos el nombre de Red Hat equivale a Linux,
ya que probablemente se trata de la compañía de linux más popular del mundo.
Fundada en 1995 por Bob Young y Marc Ewing, red Hat Inc solo ha mostrado
beneficios recientemente gracias a otros servicios en lugar de a la
distribución en si. Aun y así, Red Hat es la primera elección para muchos
profesionales y parece que seguirá siendo un peso pesado durante mucho
tiempo.
Afortunadamente se resistieron a realizar ningún plan de rápida expansión durante el boom de las punto-com durante los años 1998 - 1999, concentrándose en su negocio principal. Este tipo de gestión prudente si sigue así, es propensa a garantizar estabilidad y dependencia..
¿Qué hace a Red Hat Linux tan especial? Su curiosa mezcla de conservadurismo y paquetes punteros mezclados sobre muchas aplicaciones desarrolladas en casa. Los paquetes no son los más actuales, una vez se anuncia una nueva versión beta, las versiones de los paquetes se mantienen, excepto para actualizaciones de seguridad. Como resultado se obtiene una distribución bien probada y estable. El programa de betas y las facilidades para enviar fallos están abiertas al público y hay un gran espíritu en las listas de correo públicas.
Actualmente Red Hat ha dividido el negocio en dos áreas distintas, por una parte promociona el proyecto Fedora para usuarios finales, el cual saca tres versiones al año, manteniendo los paquetes de Red Hat para usuarios corporativos, que se mantienen más tiempo, y garantizan su estabilidad.
Red Hat Linux se ha convertido en la distribución linux dominante en servidores en todo el mundo.. Otra de las razones del éxito de Red Hat es la gran variedad de servicios populares que ofrece la compañía. Los paquetes de software son fácilmente actualizables usando la Red Hat Network, un repositorio oficial de software e información. Una larga lista de servicios de soporte son accesibles en la compañía y, aunque no siempre baratos, tienes virtualmente asegurado un excelente soporte de personal altamente cualificado. La compañía ha desarrollado incluso un programa de certificación para popularizar su distribución, el RHCE (Certificado de Ingeniería de Red Hat), academias y centros examinadores están disponibles en el casi todas partes del mundo.
Mandrake Linux (antiguo nombre de Mandriva), creada
por Gaël Duval, es una distribución que ha experimentado un enorme aumento de
popularidad desde su primera versión de julio de 1998. Los desarrolladores
partieron de la distribución de Red Hat, cambiaron el entorno de escritorio
pRedeterminado por KDE, y añadieron un instalador fácil de usar rompiendo el
mito de que linux es dificil de instalar. Las herramientas de detección de
hardware de Mandrake y sus programas para el particionamiento de discos son
consideradas por muchos como las mejores de la industria, y muchos usuarios
se encotraron usando Mandrake allí dode otras distribuciones no habían
conseguido entregar la usabilidad necesaria.Desde entonces Mandrake Linux ha
madurado y se ha convertido en una distribución popular entre los nuevos
usuarios de linux y aquellos hogares que buscan un sistema operativo
alternativo.
En el 2005-04-07 mandrake compra conectiva linux, distribución muy extendida por sudamerica, y se cambia el nombre para reflejar el cambio en la distribución a mandriva.
El desarrollo de Madriva es completamente abierto y transparente, con paquetes nuevos que se añaden al direcotrio llamado "cooker" a diario. Cuando una nueva versión entra en fase beta, la primera beta se crea a partir de los paquetes que se encuentran en "cooker" en ese momento. El proceso de pruebas de la beta solía ser corto e intensivo, pero desde la versión 9.0 ha pasado ha ser más largo y exigente. Las listas de correo sobre la versión beta suelen estar saturadas, pero sigue siendo posible recibir una respuesta rápida sobre cualquier fallo o duda que envíes.Como resultado de este tipo de desarrollo se obtiene una distribución puntera y altamente actualizada. Como contrapartida, los usuarios pueden encontrarse con más fallos que en otras distribuciones.
Debian GNU/Linux inició su andadura de la mano de Ian Murdock en 1993.
Debian es un proyecto totalmente no-comercial; posiblemente el más puro de
los ideales que iniciaron el movimiento del software libre. Cientos de
desarrolladores voluntarios de alRededor del mundo contribuyen al proyecto,
que es bien dirigido y estricto, asegurando la calidad de una distribución
conocida como Debian.En cualquier momento del proceso de desarrollo existen
tres ramas en el directorio principal: "estable", "en pruebas" e "inestable"
(también conocida como "sid").
Cuando aparece una nueva versión de un paquete, se sitúa en la rama inestable para las primeras pruebas, si las pasa, el paquete se mueve a la rama de pruebas, donde se realiza un riguroso proceso de pruebas que dura muchos meses. Esta rama solo es declarada estable tras una muy intensa fase de pruebas.
Como resultado de esto, la distribución es posiblemente la más estable y confiable, aunque no la más actualizada. Mientras que la rama estable es perfecta para servidores con funciones críticas, muchos usuarios prefieren usar las ramas de pruebas o inestable, más actualizadas, en sus ordenadores personales. Debian es también famosa por su reputación de ser dificil de instalar, a menos que el usuario tenga un profundo conocimiento del hardware de la computadora. Compensando este fallo está "apt-get" un instalador de paquetes Debian. Muchos usuarios de Debian hacen bromas sobre que su instalador es tan malo por que solo lo han de usar una vez, tan pronto como Debian está en funcionamiento, todas las actualizaciones, de cualquier tipo pueden realizarse mediante la herramienta apt-get.
Desarrollada por Klaus Knopper en Alemania, es seguro que esta distribución
basada en Debian ha puesto muy alto el listón, especialmente con su detección
automática de hardware que deja a la altura del barro la de muchas
distribuciones comerciales. Su arranque automático, gran cantidad de
software, su sitema de decompresión al vuelo y la posibilidad de instalarlo
al disco duro han convertido a knoppix en una herramienta indispensable.
Puede ser usada como un disco de rescate, una herramienta para enseñar linux
para aquellos que no lo han visto o una herramienta para probar una nueva
computadora antes de comprarla. También puede ser usada como una completa
distribución linux para el uso diario.
Se realizan actualizaciones con frecuencia, pero una vez ha adquirido estabilidad, estas suelen distanciarse entre si por varios meses. Las actualizaciones incluyen parches de fallos así como el último software de la rama inestable de Debian. Actualmente se ha pasado a soporte DVD para poder incluir todos aquellos paquetes que no cabían en un CD-Rom.
SuSE es otra compañía
orientada a los escritorios, aunque variedad de otros productos para empresas
están disponibles. La distribución ha recibido buenas críticas por su
instalador y la herramienta de configuración YaST, desarrollada por los
desarrolladores de la propia SuSE. La documentación que viene con las
versiones comerciales, ha sido repetidas veces evaluada como la más completa,
útil y usable con diferencia a la de sus competidores. SuSE Linux 7.3 recibió
el premio "Producto del año 2001" que entrega el Linux Journal. La
distribución tiene un gran porcentaje de mercado en Europa yAmérica del
norte, pero no se vende en Asia y otras partes del mundo.
El desarrollo de SuSE se realiza completamente a puerta cerrada, y no se lanzan betas públicas para probar. Siguen la política de no permitir descargar el software hasta tiempo después de que salgan a la venta las versiones comerciales. A pesar de todo, SuSE no entrega imagenes ISO de fácil instalación de su distribución, usando el software empaquetado para la gran mayoría de su base de usuarios.
Novell ha comprado a esta compañía, y esta haciendo inversiones importantes en mantener y desarrollar esta distribución, a nivel corporativo, pero sin olvidarse del usuario final (Compra de Ximan, y la reciente liberación del instalador YaST bajo licencia GPL), y ha seguido la misma estrategia que Redhat, dejando SuSE para SOHO (Small Ofice, home, en español, pequeñas oficinas y usuarios domesticos), y crenado una distribución para entornos empresariales (Novel linux desktop para escritorio, basada en gnome, y Novell Open Enterprise Server, para servidores).
LINUX es un sistema operativo, compatible Unix. Dos caracteristicas muy peculiares lo diferencian del resto de los sistemas que podemos encontrar en el mercado, la primera, es que es libre, esto significa que no tenemos que pagar ningun tipo de licencia a ninguna casa desarrolladora de software por el uso del mismo, la segunda, es que el sistema viene acompañado del codigo fuente. El sistema lo forman el nucleo del sistema (kernel) mas un gran numero de programas / librerias que hacen posible su utilizacion.
LINUX se distribuye bajo la GNU Public License: Ingles , por lo tanto, el codigo fuente tiene que estar siempre accesible.
El sistema ha sido diseñado y programado por multitud de programadores alrededor del mundo. El nucleo del sistema sigue en continuo desarrollo bajo la coordinacion de Linus Torvalds, la persona de la que partio la idea de este proyecto, a principios de la decada de los noventa.
Dia a dia, mas y mas programas / aplicaciones estan disponibles para este sistema, y la calidad de los mismos aumenta de version a version. La gran mayoria de los mismos vienen acompanados del codigo fuente y se distribuyen gratuitamente bajo los terminos de licencia de la GNU Public License.
En los ultimos tiempos, ciertas casas de software comercial han empezado a distribuir sus productos para Linux y la presencia del mismo en empresas aumenta rapidamente por la excelente relacion calidad-precio que se consigue con Linux.
Las plataformas en las que en un principio se puede utilizar Linux son 386-, 486-. Pentium, Pentium Pro, Pentium II/III/IV, Amiga y Atari, tambien existen versiones para su utilizacion en otras plataformas, como Alpha, ARM, MIPS, PowerPC y SPARC.
2.- Historia

Este comienzo estuvo inspirado en MINIX, un pequeño sistema Unix desarrollado por Andy Tanenbaum. Las primeras discusiones sobre Linux fueron en el grupo de noticias comp.os.minix, en estas discusiones se hablaba sobre todo del desarrollo de un pequeño sistema Unix para usuarios de Minix que querian mas.
Linux nunca anuncio la version 0.01 de Linux (agosto 1991), esta version no era ni siquiera ejecutable, solamente incluia los principios del nucleo del sistema, estaba escrita en lenguaje ensamblador y asumia que uno tenia acceso a un sistema Minix para su compilacion.
El 5 de octubre de 1991, Linus anuncio la primera version "Oficial" de Linux, -version 0.02. Con esta version Linus pudo ejecutar Bash (GNU Bourne Again Shell) y gcc (El compilador GNU de C) pero no mucho mas funcionaba. En este estado de desarrollo ni se pensaba en los terminos soporte, documentacion, distribucion .....
Despues de la version 0.03, Linus salto en la numeracion hasta la 0.10, mas y mas programadores a lo largo y ancho de internet empezaron a trabajar en el proyecto y despues de sucesivas revisiones, Linus incremento el numero de version hasta la 0.95 (Marzo 1992). Mas de un año despues (diciembre 1993) el nucleo del sistema estaba en la version 0.99 y la version 1.0 no llego hasta el 14 de marzo de 1994.
La serie actual del nucleo es la 2.4.x y sigue avanzando dia a dia con la meta de perfeccionar y mejorar el sistema.
3.- Algunas de sus características

LINUX utiliza la llamada multitarea preeventiva, la cual asegura que todos los programas que se estan utilizando en un momento dado seran ejecutados, siendo el sistema operativo el encargado de ceder tiempo de microprocesador a cada programa.
- Multiusuario: Muchos usuarios usando la misma maquina al mismo tiempo.
- Multiplataforma: Las plataformas en las que en un principio se puede utilizar Linux son 386-, 486-. Pentium, Pentium Pro, Pentium II,Amiga y Atari, tambien existen versiones para su utilizacion en otras plataformas, como Alpha, ARM, MIPS, PowerPC y SPARC.
- Multiprocesador: Soporte para sistemas con mas de un procesador esta disponible para Intel y SPARC.
- Funciona en modo protegido 386.
- Protección de la memoria entre procesos, de manera que uno de ellos no pueda colgar el sistema.
- Carga de ejecutables por demanda: Linux sólo lee del disco aquellas partes de un programa que están siendo usadas actualmente.
-Política de copia en escritura para la compartición de páginas entre ejecutables: esto significa que varios procesos pueden usar la misma zona de memoria para ejecutarse. Cuando alguno intenta escribir en esa memoria, la página (4Kb de memoria) se copia a otro lugar. Esta política de copia en escritura tiene dos beneficios: aumenta la velocidad y reduce el uso de memoria.
-Memoria virtual usando paginación (sin intercambio de procesos completos) a disco: A una partición o un archivo en el sistema de archivos, o ambos, con la posibilidad de añadir más áreas de intercambio sobre la marcha Un total de 16 zonas de intercambio de 128Mb de tamaño máximo pueden ser usadas en un momento dado con un límite teórico de 2Gb para intercambio. Este limite se puede aumentar facilmente con el cambio de unas cuantas lineas en el codigo fuente.
4.- Distribuciones de Linux

Una distribución no es otra cosa, que una recopilación de programas y ficheros, organizados y preparados para su instalación. Estas distribuciones se pueden obtener a traves de Internet, o comprando los CDs de las mismas, los cuales contendrán todo lo necesario para instalar un sistema Linux bastante completo y en la mayoría de los casos un programa de instalación que nos ayudara en la tarea de una primera instalación. Casi todos los principales distribuidores de Linux, ofrecen la posibilidad de bajarse sus distribuciones, via FTP (sin cargo alguno).
Existen varias distribuciones creadas por diferentes empresas a unos precios bastantes asequibles (si se compran los CDs, en vez de bajársela via FTP), las cuales deberiais de poder encontrar en tiendas de informática o librerías. En El siguiente enlace teneis una lista con las empresas que distribuyen distribuciones en España y Centro/Sur américa. En el peor de los casos siempre podeis encargarlas directamente por Internet a las empresas que las crean. A veces, las revistas de informática sacan una edición bastante aceptable de alguna distribución.
Si vais a instalar el sistema por primera vez, os recomiendo haceros con una de estas distribuciones y en un futuro cuando querais actualizar el sistema con las últimas versiones y actualizaciones del núcleo y programas que utiliceis, usar Interne

Afortunadamente se resistieron a realizar ningún plan de rápida expansión durante el boom de las punto-com durante los años 1998 - 1999, concentrándose en su negocio principal. Este tipo de gestión prudente si sigue así, es propensa a garantizar estabilidad y dependencia..
¿Qué hace a Red Hat Linux tan especial? Su curiosa mezcla de conservadurismo y paquetes punteros mezclados sobre muchas aplicaciones desarrolladas en casa. Los paquetes no son los más actuales, una vez se anuncia una nueva versión beta, las versiones de los paquetes se mantienen, excepto para actualizaciones de seguridad. Como resultado se obtiene una distribución bien probada y estable. El programa de betas y las facilidades para enviar fallos están abiertas al público y hay un gran espíritu en las listas de correo públicas.
Actualmente Red Hat ha dividido el negocio en dos áreas distintas, por una parte promociona el proyecto Fedora para usuarios finales, el cual saca tres versiones al año, manteniendo los paquetes de Red Hat para usuarios corporativos, que se mantienen más tiempo, y garantizan su estabilidad.
Red Hat Linux se ha convertido en la distribución linux dominante en servidores en todo el mundo.. Otra de las razones del éxito de Red Hat es la gran variedad de servicios populares que ofrece la compañía. Los paquetes de software son fácilmente actualizables usando la Red Hat Network, un repositorio oficial de software e información. Una larga lista de servicios de soporte son accesibles en la compañía y, aunque no siempre baratos, tienes virtualmente asegurado un excelente soporte de personal altamente cualificado. La compañía ha desarrollado incluso un programa de certificación para popularizar su distribución, el RHCE (Certificado de Ingeniería de Red Hat), academias y centros examinadores están disponibles en el casi todas partes del mundo.
Mandrake linux

En el 2005-04-07 mandrake compra conectiva linux, distribución muy extendida por sudamerica, y se cambia el nombre para reflejar el cambio en la distribución a mandriva.
El desarrollo de Madriva es completamente abierto y transparente, con paquetes nuevos que se añaden al direcotrio llamado "cooker" a diario. Cuando una nueva versión entra en fase beta, la primera beta se crea a partir de los paquetes que se encuentran en "cooker" en ese momento. El proceso de pruebas de la beta solía ser corto e intensivo, pero desde la versión 9.0 ha pasado ha ser más largo y exigente. Las listas de correo sobre la versión beta suelen estar saturadas, pero sigue siendo posible recibir una respuesta rápida sobre cualquier fallo o duda que envíes.Como resultado de este tipo de desarrollo se obtiene una distribución puntera y altamente actualizada. Como contrapartida, los usuarios pueden encontrarse con más fallos que en otras distribuciones.
Debian

Cuando aparece una nueva versión de un paquete, se sitúa en la rama inestable para las primeras pruebas, si las pasa, el paquete se mueve a la rama de pruebas, donde se realiza un riguroso proceso de pruebas que dura muchos meses. Esta rama solo es declarada estable tras una muy intensa fase de pruebas.
Como resultado de esto, la distribución es posiblemente la más estable y confiable, aunque no la más actualizada. Mientras que la rama estable es perfecta para servidores con funciones críticas, muchos usuarios prefieren usar las ramas de pruebas o inestable, más actualizadas, en sus ordenadores personales. Debian es también famosa por su reputación de ser dificil de instalar, a menos que el usuario tenga un profundo conocimiento del hardware de la computadora. Compensando este fallo está "apt-get" un instalador de paquetes Debian. Muchos usuarios de Debian hacen bromas sobre que su instalador es tan malo por que solo lo han de usar una vez, tan pronto como Debian está en funcionamiento, todas las actualizaciones, de cualquier tipo pueden realizarse mediante la herramienta apt-get.
Knoppix

Se realizan actualizaciones con frecuencia, pero una vez ha adquirido estabilidad, estas suelen distanciarse entre si por varios meses. Las actualizaciones incluyen parches de fallos así como el último software de la rama inestable de Debian. Actualmente se ha pasado a soporte DVD para poder incluir todos aquellos paquetes que no cabían en un CD-Rom.
SuSE - Novell Linux Desktop

El desarrollo de SuSE se realiza completamente a puerta cerrada, y no se lanzan betas públicas para probar. Siguen la política de no permitir descargar el software hasta tiempo después de que salgan a la venta las versiones comerciales. A pesar de todo, SuSE no entrega imagenes ISO de fácil instalación de su distribución, usando el software empaquetado para la gran mayoría de su base de usuarios.
Novell ha comprado a esta compañía, y esta haciendo inversiones importantes en mantener y desarrollar esta distribución, a nivel corporativo, pero sin olvidarse del usuario final (Compra de Ximan, y la reciente liberación del instalador YaST bajo licencia GPL), y ha seguido la misma estrategia que Redhat, dejando SuSE para SOHO (Small Ofice, home, en español, pequeñas oficinas y usuarios domesticos), y crenado una distribución para entornos empresariales (Novel linux desktop para escritorio, basada en gnome, y Novell Open Enterprise Server, para servidores).
VERSIONES DE ANDROID Y NIVELES DE API
Las versiones de Android y niveles de API
Antes de empezar a proyecto en Android hay que elegir la versión del sistema para la que deseamos realizar la aplicación. Es muy importante observar que hay clases y métodos que están disponibles a partir de una versión, si las vamos a usar hemos de conocer la versión mínima necesaria.Cuando se ha lanzado una nueva plataforma siempre ha sido compatible con las versiones anteriores. Es decir, solo se añaden nuevas funcionalidades y en el caso de modificar alguna funcionalidad no se elimina, se etiquetan como obsoletas pero se pueden continuar utilizando.
A continuación se describen las plataformas lanzadas hasta la fecha con una breve descripción de las novedades introducidas. Las plataformas se identifican de tres formas alternativas: versión, nivel de API y nombre comercial. El nivel de API corresponde a números enteros comenzando desde 1. Para los nombres comerciales se han elegido postres en orden alfabético Cupcake (v1.5), Donut (v1.6), Éclair (v2.0), Froyo (v2.2), Gingerbread (v2.3), … Las dos primeras versiones, que hubieran correspondido a las letras A y B, no recibieron nombre.
Las primeras versiones
Android 1.0 Nivel de API 1 (septiembre 2008)Primera versión de Android. Nunca se utilizó comercialmente, por lo que no tiene mucho sentido desarrollar para esta plataforma.
Android 1.1 Nivel de API 2 (febrero 2009)
No se añadieron apenas funcionalidades simplemente se fijaron algunos errores de la versión anterior. Es la opción a escoger si queremos desarrollar una aplicación compatible con todos los dispositivos Android. No obstante apenas existen usuarios con esta versión.
Cupcake 
Android 1.5 Nivel de API 3 (abril 2009)Es la primera versión con algún usuario, aunque en la actualidad apenas quedan. Como novedades, se incorpora la posibilidad de teclado en pantalla con predicción de texto, los terminales ya no tienen que tener un teclado físico, así como la capacidad de grabación avanzada de audio y vídeo. También aparecen los widgets de escritorio y live folders. Incorpora soporte para bluetooth estéreo, por lo que permite conectarse automáticamente a auriculares bluetooth. Las transiciones entre ventanas se realizan mediante animaciones.
Donut 
Android 1.6 Nivel de API 4 (septiembre 2009)Permite capacidades de búsqueda avanzada en todo el dispositivo. También se incorpora gestures y la síntesis de texto a voz. Asimismo, se facilita que una aplicación pueda trabajar con diferentes densidades de pantalla. Soporte para resolución de pantallas WVGA. Aparece un nuevo atributo XML, onClick, que puede especificarse en una vista. Soporte para CDMA/EVDO, 802.1x y VPNs.
Éclair 
Android 2.0 Nivel de API 5 (octubre 2009)Esta versión de API apenas cuenta con usuarios, dado que la mayoría de fabricantes pasaron directamente de la versión 1.6 a la 2.1. Como novedades cabría destacar que incorpora un API para manejar el bluetooth 2.1. Nueva funcionalidad que permite sincronizar adaptadores para conectarlo a cualquier dispositivo. Ofrece un servicio centralizado de manejo de cuentas. Mejora la gestión de contactos y ofrece más ajustes en la cámara. Se ha optimizado la velocidad de hardware. Se aumenta el número de tamaños de ventana y resoluciones soportadas. Nueva interfaz del navegador y soporte para HTML5. Mejoras en el calendario y soporte para Microsoft Exchange. La clase MotionEvent ahora soporta eventos en pantallas multitáctil.
Android 2.1 Nivel de API 7 (enero 2010)
Se considera una actualización menor, por lo que la siguieron llamando Éclair. Destacamos el reconocimiento de voz, que permite introducir un campo de texto dictando sin necesidad de utilizar el teclado. También permite desarrollar fondos de pantalla animados. Se puede obtener información sobre la señal de la red actual que posea el dispositivo. En el paquete WebKit se incluyen nuevos métodos para manipular bases de datos almacenadas en Internet.
Froyo 
Android 2.2 Nivel de API 8 (mayo 2010)Como característica más destacada se puede indicar la mejora de velocidad de ejecución de las aplicaciones (ejecución del código de la CPU de 2 a 5 veces más rápido que en la versión 2.1 de acuerdo a varios benchmarks). Esto se consigue con la introducción de un nuevo compilador JIT de la máquina Dalvik.
Se añaden varias mejoras relacionadas con el navegador Web, como el soporte de Adobe Flash 10.1 y la incorporación del motor Javascript V8 utilizado en Chrome.
El desarrollo de aplicaciones permite las siguientes novedades: se puede preguntar al usuario si desea instalar una aplicación en un medio de almacenamiento externo (como una tarjeta SD), como alternativa a la instalación en la memoria interna del dispositivo. Las aplicaciones se actualizan de forma automática cuando aparece una nueva versión. Proporciona un servicio para la copia de seguridad de datos que se puede realizar desde la propia aplicación para garantizar al usuario el mantenimiento de sus datos. Por último, se facilita que las aplicaciones interaccionen con el reconocimiento de voz y que terceras partes proporcionen nuevos motores de reconocimiento.
Se mejora la conectividad: ahora podemos utilizar nuestro teléfono para dar acceso a Internet a otros dispositivos (tethering), tanto por USB como por Wi-Fi. También se añade el soporte a Wi-Fi IEEE 802.11n y notificaciones push.
Se añaden varias mejoras en diferentes componentes: En el API gráfica OpenGL ES se pasa a soportar la versión 2.0. Para finalizar, permite definir modos de interfaz de usuario (“automóvil” y “noche”) para que las aplicaciones se configuren según el modo seleccionado por el usuario.
Gingerbread 
Android 2.3 Nivel de API 9 (diciembre 2010)Debido al éxito de Android en las nuevas tabletas ahora soporta mayores tamaños de pantalla y resoluciones (WXGA y superiores).
Incorpora un nuevo interfaz de usuario con un diseño actualizado. Dentro de las mejoras de la interfaz de usuario destacamos la mejora de la funcionalidad de “cortar, copiar y pegar” y un teclado en pantalla con capacidad multitáctil.
Se incluye soporte nativo para varias cámaras, pensado en la segunda cámara usada en videoconferencia. La incorporación de esta segunda cámara ha propiciado la inclusión de reconocimiento facial para identificar el usuario del terminal.
La máquina virtual de Dalvik introduce un nuevo recolector de basura que minimiza las pausas de la aplicación, ayudando a garantizar una mejor animación y el aumento de la capacidad de respuesta en juegos y aplicaciones similares. Se trata de corregir así una de las lacras de este sistema operativo móvil, que en versiones previas no ha sido capaz de cerrar bien las aplicaciones en desuso. Se dispone de mayor apoyo para el desarrollo de código nativo (NDK).También se mejora la gestión de energía y control de aplicaciones. Y se cambia el sistema de ficheros, que pasa de YAFFS a ext4.
Entre otras novedades destacamos en soporte nativo para telefonía sobre Internet VoIP/SIP. El soporte para reproducción de vídeo WebM/VP8 y codificación de audio AAC. El soporte para la tecnología NFC. Las facilidades en el audio, gráficos y entradas para los desarrolladores de juegos. El soporte nativo para más sensores (como giroscopios y barómetros). Un gestor de descargas para las descargas largas.
Honeycomb 
CIENCIAS SOCIALES
CIENCIAS SOCIALES
El Instituto de Ciencia Política es un departamento de la Facultad de Ciencias Sociales dedicado al cultivo sistemático de la disciplina, desde una perspectiva que resalta la especificidad y la relativa autonomía del acontecer político. Este cometido se cumple mediante la enseñanza de grado y de posgrado, la investigación científica, las publicaciones especializadas y el intercambio docente, la extensión universitaria y la divulgación del conocimiento en la materia.
Encargado de Dirección: Dr. Nicolás Bentancur (julio 2014 – julio 2015)
Contacto: direccion.dcp@cienciassociales.edu.uy
Comisión de Gestión Académica: Dr. Nicolás Bentancur, Dr. Daniel Buquet, Dr. Adolfo Garcé, Dra. María Ester Mancebo, Dra. Carmen Midaglia.
El Instituto de Ciencia Política es un departamento de la Facultad de Ciencias Sociales dedicado al cultivo sistemático de la disciplina, desde una perspectiva que resalta la especificidad y la relativa autonomía del acontecer político. Este cometido se cumple mediante la enseñanza de grado y de posgrado, la investigación científica, las publicaciones especializadas y el intercambio docente, la extensión universitaria y la divulgación del conocimiento en la materia.
En su condición de entidad académica, el
Instituto constituye un lugar público de encuentros, que convoca a los
especialistas del ramo, a los funcionarios de gobierno, a los agentes de
partido y a los diversos actores sociales, en un espectro amplio y
plural, promoviendo el análisis de los problemas políticos, la
trasmisión de experiencias y el debate de ideas.
Está dirigido por el Encargado de
Dirección y la Comisión de Gestión Académica que dependen
jerárquicamente del Consejo de la Facultad de Ciencias Sociales de la
Universidad de la República.
El Instituto nació en la Facultad de
Derecho, en 1985, actuando en un principio como sala de los profesores
de la asignatura. En 1989 se inició la Licenciatura de Ciencia Política y
recién a partir de ese año se establecieron los primeros cargos de
investigación. El establecimiento de la Licenciatura y de los cargos de
investigación, el impulso de las publicaciones y de los eventos públicos
ha permitido seguir avanzando en el sentido antes mencionado en las
últimas décadas.
El Instituto es un organismo estatal y
constituye un departamento de la Facultad de Ciencias Sociales de la
Universidad de la República (Montevideo, Uruguay). La fundación de la
Facultad de Ciencias Sociales en 1991, que el Instituto pasa a integrar
desde el origen, proporciona un ámbito especializado, otras coordenadas
académicas y una nueva sede física tras una apuesta de integración
disciplinaria y de perfeccionamiento docente, en el marco de un proyecto
empeñoso de la Universidad de la República, que implica un mayor
compromiso y mayores perspectivas.
Estas acciones fomentan el desarrollo de
la Ciencia Política en el Uruguay, acompañando la evolución que se
registra en los Estados Unidos, en Europa y en América Latina,
enlazándose con la obra de algunas figuras de relieve – como Carlos Real
de Azúa y Aldo Solari – con los esfuerzos universitarios precedentes y
con la labor que realizan otros centros.
La empresa reune a un núcleo calificado
de docentes – varios de los cuales adquirieron formación de posgrado en
el exterior – y queda asociada a la transformación histórica que estamos
viviendo. La labor del Instituto pretende responder a los
requerimientos actuales de la cultura y de la educación superior e
insiste en la acumulación y en la circulación del conocimiento
especializado. Afirma la profesionalidad politológica, delineando una
gama de destrezas a tono con los procesos de reforma del Estado y con
las nuevas necesidades de la gestión pública. Atiende a un objetivo de
promoción democrática, alimentando la información disponible y las
elaboraciones de opinión pública, apoyando los ejercicios de ciudadanía,
aportando elementos para encaminar los problemas políticos y para
ajustar el régimen de gobierno.
Encargado de Dirección: Dr. Nicolás Bentancur (julio 2014 – julio 2015)
Contacto: direccion.dcp@cienciassociales.edu.uy
Comisión de Gestión Académica: Dr. Nicolás Bentancur, Dr. Daniel Buquet, Dr. Adolfo Garcé, Dra. María Ester Mancebo, Dra. Carmen Midaglia.
INTELIGENCIA ARTIFICIAL
INTELIGENCIA ARTIFICIAL
Él termino "inteligencia artificial" fue acuñado formalmente en 1956 durante la conferencia de Darthmounth, más para entonces ya se había estado trabajando en ello durante cinco años en los cuales se había propuesto muchas definiciones distintas que en ningún caso habían logrado ser aceptadas totalmente por la comunidad investigadora. La AI es una de las disciplinas más nuevas que junto con la genética moderna es el campo en que la mayoría de los científicos " más les gustaría trabajar".
Una de las grandes razones por la cuales se realiza el estudio de la IA es él poder aprender más acerca de nosotros mismos y a diferencia de la psicología y de la filosofía que también centran su estudio de la inteligencia, IA y sus esfuerzos por comprender este fenómeno están encaminados tanto a la construcción de entidades de inteligentes como su comprensión.
El estudio de la inteligencia es una de las disciplinas más antiguas, por más de 2000 años los filósofos no han escatimado esfuerzos por comprender como se ve, recuerda y razona junto con la forma en que estas actividades deberían realizarse. Según John Mc Carthy la inteligencia es la "capacidad que tiene el ser humano de adaptarse eficazmente al cambio de circunstancias mediante el uso de información sobre esos cambios", pero esta definición resulta muy amplia ya que de acuerdo con esta, el sistema inmunológico del cuerpo humanó resultaría inteligente ya que también mediante el uso de información este logra adaptarse al cambio. Otra interesante manera de ilustrar la inteligencia seria recurrir a la teoría societal de la mente de Marvin Minsky donde cada mente humana es el resultado del accionar de un comité de mentes de menor poder que conversan entre sí y combinan sus respectivas habilidades con el fin de resolver problemas.
La llegada de las computadoras a principios de los 50, permitió el abordaje sin especulación de estas facultades mentales mediante una autentica disciplina teórica experimental. Es a partir de esto que se encontró que la IA constituye algo mucho más complejo de lo que se pudo llegar a imaginar en principio ya que las ideas modernas que constituyen esta disciplina se caracterizan por su gran riqueza, sutileza e interés; en la actualidad la IA abarca una enorme cantidad de subcampos que van desde áreas de propósito general hasta tareas especificas.
Una de las definiciones que se han dado para describir la IA la sitúa dentro de una disciplina que tiene que ver con las ciencias de la computación que corresponden al esfuerzo por parte de gran cantidad de científicos que durante los últimos treinta años han realizado con el fin de dotar a las computadoras de inteligencia, a partir de esta definición encontramos que una de las técnicas de IA es aquella que se utiliza con el fin de lograr que un determinado programa se comporte de forma inteligente sin pretender tener en cuenta la " forma de razonamiento "empleada para lograr ese comportamiento.
Luego, aquí surge un dilema, ya que según esto cualquier problema resoluble por un computador, sin complicaciones y también como un ser humano podría encuadrarse en el campo de la inteligencia artificial acudiendo solamente a la aplicación de reglas consecutivas al pie de la letra o lo que encontramos con el nombre de Algoritmos dentro del lenguaje de IA; este termino fue acuñado en honor al matemático árabe AL-KWARIZMI que copiló una serie de estos para ser aplicados a diferentes problemas algebraicos.
Cuando se aplican algoritmos a
la solución de los problemas aunque no se está
actuando inteligentemente si esta siendo eficaz pero los
problemas realmente complicados a los que se enfrenta el ser
humano son aquellos en los cuales no existe algoritmo
conocido así que surgen de reglas que tratan de
orientarnos hacia las soluciones
llamadas Heurísticas en las cuales nunca nada nos
garantiza que la aplicación de una de estas reglas nos
acerque a la solución como ocurre con los
anteriores.
A partir de estos datos; Farid Fleifel Tapia describe a la IA como: "la rama de la ciencia de la computación que estudia la resolución de problemas no algorítmicos mediante el uso de cualquier técnica de computación disponible, sin tener en cuenta la forma de razonamiento subyacente a los métodos que se apliquen para lograr esa resolución.
Para completar esa definición, algunas definiciones no tan formales emitidas por diferentes investigadores de la IA que consideran otros puntos de vista son:
La IA al tratar de construir maquinas que se comporten aparentemente como seres humanos han dado lugar al surgimiento de dos bloques enfrentados: el enfoque simbólico o top-down, conocido como la IA clásica y el enfoque subsimbolico llamado a veces conexionista.
Los simbólicos simulan directamente las características inteligentes que se pretenden conseguir o imitar y lo mejor que también se tiene a la mano es el hombre; para los constructores de los sistemas expertos resulta fundamental la representación del conocimiento humano donde gracias a estos avances se han encontrado dos tipos de conocimiento: conocimiento acerca del problema particular¨ y ¨conocimiento a cerca de cómo obtener mas conocimiento a partir del que ya tenemos¨. El ejemplo más representativo de esta corriente es el proyecto de Cyc de Douglas B. Lenat sobre un sistema que posee en su memoria millones de hechos interconectados.
Dentro de la otra corriente: la subsimbolica; sus esfuerzos se orientan a la simulación de los elementos de mas bajo nivel dentro de los procesos inteligentes con la esperanza de que estos al combinarse permitan que espontáneamente surja el comportamiento inteligente. Los ejemplos mas claros que trabajan con este tipo de orientación son las redes neuronales y los algoritmos genéticos donde estos sistemas trabajan bajo la autonomía, el aprendizaje y la adaptación, conceptos fuertemente relacionados.
Uno de los grandes seguidores de la IA; Marvin
Minsky, ha dado una clasificación para los lenguajes de
programación que se utilizan en esta
disciplina:
Otra propiedad que se espera ver asociada a la IA es la autoconciencia; que de acuerdo con los resultados de las investigaciones psicológicas hablan por una parte de que como es bien sabido, el pensamiento humano realiza gran cantidad de funciones que no se pueden calificar de conscientes y que por lo tanto la autoconciencia contribuye en cierto sentido a impedir el proceso mental eficiente; pero por otro lado es de gran importancia poder tener conocimiento sobre nuestras propias capacidades y limitaciones siendo esto de gran ayuda para el funcionamiento de la inteligencia tanto de la maquina como del ser humano.
Pero seria imposible tratar de contemplar el tema de la IA sin recurrir a la cuestión de la complejidad; donde el comportamiento inteligente es el resultado de la interacción de muchos elementos y que con seguridad es una de las más valiosas contribuciones al tratar de simular en la maquina los fenómenos intelectuales humanos.
La IA se ha desarrollado como disciplina a partir de la concepción de la inteligencia que se realizo al interior de la psicología y a partir de la cual se elaboraron diferentes categorías.
Él termino "inteligencia artificial" fue acuñado formalmente en 1956 durante la conferencia de Darthmounth, más para entonces ya se había estado trabajando en ello durante cinco años en los cuales se había propuesto muchas definiciones distintas que en ningún caso habían logrado ser aceptadas totalmente por la comunidad investigadora. La AI es una de las disciplinas más nuevas que junto con la genética moderna es el campo en que la mayoría de los científicos " más les gustaría trabajar".
Una de las grandes razones por la cuales se realiza el estudio de la IA es él poder aprender más acerca de nosotros mismos y a diferencia de la psicología y de la filosofía que también centran su estudio de la inteligencia, IA y sus esfuerzos por comprender este fenómeno están encaminados tanto a la construcción de entidades de inteligentes como su comprensión.
El estudio de la inteligencia es una de las disciplinas más antiguas, por más de 2000 años los filósofos no han escatimado esfuerzos por comprender como se ve, recuerda y razona junto con la forma en que estas actividades deberían realizarse. Según John Mc Carthy la inteligencia es la "capacidad que tiene el ser humano de adaptarse eficazmente al cambio de circunstancias mediante el uso de información sobre esos cambios", pero esta definición resulta muy amplia ya que de acuerdo con esta, el sistema inmunológico del cuerpo humanó resultaría inteligente ya que también mediante el uso de información este logra adaptarse al cambio. Otra interesante manera de ilustrar la inteligencia seria recurrir a la teoría societal de la mente de Marvin Minsky donde cada mente humana es el resultado del accionar de un comité de mentes de menor poder que conversan entre sí y combinan sus respectivas habilidades con el fin de resolver problemas.
La llegada de las computadoras a principios de los 50, permitió el abordaje sin especulación de estas facultades mentales mediante una autentica disciplina teórica experimental. Es a partir de esto que se encontró que la IA constituye algo mucho más complejo de lo que se pudo llegar a imaginar en principio ya que las ideas modernas que constituyen esta disciplina se caracterizan por su gran riqueza, sutileza e interés; en la actualidad la IA abarca una enorme cantidad de subcampos que van desde áreas de propósito general hasta tareas especificas.
Una de las definiciones que se han dado para describir la IA la sitúa dentro de una disciplina que tiene que ver con las ciencias de la computación que corresponden al esfuerzo por parte de gran cantidad de científicos que durante los últimos treinta años han realizado con el fin de dotar a las computadoras de inteligencia, a partir de esta definición encontramos que una de las técnicas de IA es aquella que se utiliza con el fin de lograr que un determinado programa se comporte de forma inteligente sin pretender tener en cuenta la " forma de razonamiento "empleada para lograr ese comportamiento.
Luego, aquí surge un dilema, ya que según esto cualquier problema resoluble por un computador, sin complicaciones y también como un ser humano podría encuadrarse en el campo de la inteligencia artificial acudiendo solamente a la aplicación de reglas consecutivas al pie de la letra o lo que encontramos con el nombre de Algoritmos dentro del lenguaje de IA; este termino fue acuñado en honor al matemático árabe AL-KWARIZMI que copiló una serie de estos para ser aplicados a diferentes problemas algebraicos.

A partir de estos datos; Farid Fleifel Tapia describe a la IA como: "la rama de la ciencia de la computación que estudia la resolución de problemas no algorítmicos mediante el uso de cualquier técnica de computación disponible, sin tener en cuenta la forma de razonamiento subyacente a los métodos que se apliquen para lograr esa resolución.
Para completar esa definición, algunas definiciones no tan formales emitidas por diferentes investigadores de la IA que consideran otros puntos de vista son:
- La IA es el arte de crear maquinas con capacidad de realizar funciones que realizadas por personas requieren de inteligencia. ( Kurzweil, 1990)
- La IA es el estudio de cómo lograr que las computadoras realicen tareas que, por el momento, los humanos hacen mejor. (Rich, Knight, 1991).
- La IA es la rama de la ciencia de la computación que se ocupa de la automatización de la conducta inteligente. (Lugar y Stubblefied, 1993).
- La IA es el campo de estudio que se enfoca a la explicación y emulación de la conducta inteligente en función de procesos computacionales. (Schalkoff, 1990).
- La IA concebida como el intento por desarrollar una tecnología capaz de proveer al ordenador capacidades de razonamiento similares a los de la inteligencia humana.
- La IA en su concepción como investigación relativa a los mecanismos de la inteligencia humana que se emplean en la simulación de validación de teorías.

John McCarthy
En el segundo enfoque encontramos que este se orienta a
la creación de un sistema artificial capaz de realizar
procesos cognitivos humanos haciendo importante ya no la utilidad
como el método, los aspectos fundamentales de este enfoque
se refieren al aprendizaje y
adaptabiliada y sus autores son Newell y Simon de
la Carnegie Mellon University.La IA al tratar de construir maquinas que se comporten aparentemente como seres humanos han dado lugar al surgimiento de dos bloques enfrentados: el enfoque simbólico o top-down, conocido como la IA clásica y el enfoque subsimbolico llamado a veces conexionista.
Los simbólicos simulan directamente las características inteligentes que se pretenden conseguir o imitar y lo mejor que también se tiene a la mano es el hombre; para los constructores de los sistemas expertos resulta fundamental la representación del conocimiento humano donde gracias a estos avances se han encontrado dos tipos de conocimiento: conocimiento acerca del problema particular¨ y ¨conocimiento a cerca de cómo obtener mas conocimiento a partir del que ya tenemos¨. El ejemplo más representativo de esta corriente es el proyecto de Cyc de Douglas B. Lenat sobre un sistema que posee en su memoria millones de hechos interconectados.
Dentro de la otra corriente: la subsimbolica; sus esfuerzos se orientan a la simulación de los elementos de mas bajo nivel dentro de los procesos inteligentes con la esperanza de que estos al combinarse permitan que espontáneamente surja el comportamiento inteligente. Los ejemplos mas claros que trabajan con este tipo de orientación son las redes neuronales y los algoritmos genéticos donde estos sistemas trabajan bajo la autonomía, el aprendizaje y la adaptación, conceptos fuertemente relacionados.


Marvin Minsky
- ¨Haga ahora¨: Donde el programador surte de instrucciones a la maquina para realizar una tarea determinada donde todo queda especificado excepto quizás él numero de repeticiones.
- ¨Haga siempre que¨: Aquí se permite escribir un programa que le sirva a la computadora para resolver aquello problemas que el programador no sabe resolver pero conoce que tipo de soluciones se pueden intentar.
- "De constreñimiento": se escriben programas que definen estructuras y estados que se condicionan y limitan recíprocamente.
- "Haga algo que tenga sentido¨: Donde se permite al programa aprender del pasado y en una nueva situación aplicar sus enseñanzas.
- "Mejórense a sí mismo": Allí se podrá permitir escribir programas que tengan en adelante la capacidad de escribir programas mejores que ellos mismos.
Otra propiedad que se espera ver asociada a la IA es la autoconciencia; que de acuerdo con los resultados de las investigaciones psicológicas hablan por una parte de que como es bien sabido, el pensamiento humano realiza gran cantidad de funciones que no se pueden calificar de conscientes y que por lo tanto la autoconciencia contribuye en cierto sentido a impedir el proceso mental eficiente; pero por otro lado es de gran importancia poder tener conocimiento sobre nuestras propias capacidades y limitaciones siendo esto de gran ayuda para el funcionamiento de la inteligencia tanto de la maquina como del ser humano.
Pero seria imposible tratar de contemplar el tema de la IA sin recurrir a la cuestión de la complejidad; donde el comportamiento inteligente es el resultado de la interacción de muchos elementos y que con seguridad es una de las más valiosas contribuciones al tratar de simular en la maquina los fenómenos intelectuales humanos.
La IA se ha desarrollado como disciplina a partir de la concepción de la inteligencia que se realizo al interior de la psicología y a partir de la cual se elaboraron diferentes categorías.
ARTE, CIENCIA Y TECNOLOGIA
ARTE, CIENCIA Y TECNOLOGIA
La ciencia y la tecnología siempre han evolucionado en forma conjunta. El desarrollo de una conlleva o potencia el desarrollo de la otra. Es por ello que siempre las hallamos juntas, en una suerte de evolución constante entre sinérgica y simbiótica.
La instinto de supervivencia nos ha llevado como animales que somos a obedecer primero nuestra parte instintiva y luego a actuar como seres racionales.
La técnica o habilidad adquirida responde a esta parte instintiva. Por ensayo y error vamos desarrollando habilidades y aprendiendo a partir de esa relación causa-efecto.
La ciencia es más reflexiva. Cuando ya, a partir de la observación, generamos hipótesis, teorizamos y realizamos comprobaciones, estamos comportándonos científicamente. De la aplicación práctica de estos conocimientos científicos surge la tecnología.
La ciencia y la tecnología siempre han evolucionado en forma conjunta. El desarrollo de una conlleva o potencia el desarrollo de la otra. Es por ello que siempre las hallamos juntas, en una suerte de evolución constante entre sinérgica y simbiótica.
La instinto de supervivencia nos ha llevado como animales que somos a obedecer primero nuestra parte instintiva y luego a actuar como seres racionales.
La técnica o habilidad adquirida responde a esta parte instintiva. Por ensayo y error vamos desarrollando habilidades y aprendiendo a partir de esa relación causa-efecto.
La ciencia es más reflexiva. Cuando ya, a partir de la observación, generamos hipótesis, teorizamos y realizamos comprobaciones, estamos comportándonos científicamente. De la aplicación práctica de estos conocimientos científicos surge la tecnología.
Arte, ciencia y tecnología, ayer…
En algunas de
nuestras culturas ancestrales, existía un sólo vocablo para expresar
los conceptos de tecnología, ciencia o arte. En nuestra lengua arte proviene del latín “ars” y técnica
del griego “tekne”; palabras que se refieren a la habilidad para
realizar alguna tarea u objetivo. De hecho, la cultura es un todo,
donde el arte se mezcla con la ciencia y la tecnología. A lo largo de
historia, el hombre ha utilizado todas las herramientas disponibles
para la creación de sus obras artísticas. Desde las eras más primitivas
ha desarrollado tintas y pinturas con un grado de sofisticación que aun
hoy asombra. Se ha expresado y ha dejado su legado sobre piedra usando
técnicas aerográficas similares a las que se utilizan hoy en día.
Aquello que denominamos “arte”, y que en épocas remotas se encontraba más ligado a la religión o la magia que a lo puramente artístico, se ha desarrollado a medida que el hombre fue dominando y manejando diferentes materiales, tales como la madera, la piedra o el metal. Asimismo, a medida que la ciencia fue evolucionando, el arte utilizó recursos como la física y la astronomía. De esta manera, con el tiempo, se fue desarrollando el automatismo y la cibernética, siendo algunos de los predecesores de los robots verdaderas expresiones artísticas.
El arte ha estado siempre asociado a la técnica y a la tecnología. Acudiendo a la historia del arte, es cierto que hacia principios de los años sesenta del siglo XX, la desmaterialización del arte nos enfrenta con un tipo de práctica artística desprovista de toda herramienta tecnológica: el arte conceptual. Puramente reflexivo, pone el acento en la “idea” o “concepto”, sin necesidad de una expresión material concreta. Sin embargo, inclusive el arte conceptual, hace uso de la tecnología (la fotografía, por ejemplo) para registrar sus acciones y performances, siendo ésta, en muchas oportunidades, la única fuente de documentación que nos permite acceder a la “obra” e, incluso, su único soporte.
Aquello que denominamos “arte”, y que en épocas remotas se encontraba más ligado a la religión o la magia que a lo puramente artístico, se ha desarrollado a medida que el hombre fue dominando y manejando diferentes materiales, tales como la madera, la piedra o el metal. Asimismo, a medida que la ciencia fue evolucionando, el arte utilizó recursos como la física y la astronomía. De esta manera, con el tiempo, se fue desarrollando el automatismo y la cibernética, siendo algunos de los predecesores de los robots verdaderas expresiones artísticas.
El arte ha estado siempre asociado a la técnica y a la tecnología. Acudiendo a la historia del arte, es cierto que hacia principios de los años sesenta del siglo XX, la desmaterialización del arte nos enfrenta con un tipo de práctica artística desprovista de toda herramienta tecnológica: el arte conceptual. Puramente reflexivo, pone el acento en la “idea” o “concepto”, sin necesidad de una expresión material concreta. Sin embargo, inclusive el arte conceptual, hace uso de la tecnología (la fotografía, por ejemplo) para registrar sus acciones y performances, siendo ésta, en muchas oportunidades, la única fuente de documentación que nos permite acceder a la “obra” e, incluso, su único soporte.
Las serpientes de Chichén. Itzá
Numerosos son
los ejemplos a través de la historia donde se conjugan el arte, la
ciencia y la tecnología. El que presentamos aquí corresponde a la
pirámide de Kukulcán en Chichén-Itza, ciudad Maya, al norte de la
península de Yucatán en México.
Los mayas reunieron avanzados conocimientos de astronomía y refinadas tecnologías de construcción para producir el magnifico evento solar en el que una serpiente parece descender de la pirámide. Parte de la construcción, se ilumina en forma determinada en un momento específico de la conjunción del Sol con la Tierra. Durante los equinoccios, el sol se proyecta en las escalinatas y forma, sobre los laterales, la figura de una serpiente, en un asombroso juego de luces y sombras que genera la sensación óptica de movimiento descendente de la serpiente.
Los mayas reunieron avanzados conocimientos de astronomía y refinadas tecnologías de construcción para producir el magnifico evento solar en el que una serpiente parece descender de la pirámide. Parte de la construcción, se ilumina en forma determinada en un momento específico de la conjunción del Sol con la Tierra. Durante los equinoccios, el sol se proyecta en las escalinatas y forma, sobre los laterales, la figura de una serpiente, en un asombroso juego de luces y sombras que genera la sensación óptica de movimiento descendente de la serpiente.
Arte, ciencia y tecnología, hoy …
Siempre hubo y
habrá una nueva tecnología útil para el arte, ya sea un nuevo soporte, o
una nueva interfase, tanto para el artista como para el espectador.
Incluso, algunas de las categorías artísticas más difundidas
actualmente, como el net.art; el video-arte; etc., han surgido como
consecuencia de la aparición de una nueva tecnología. La revolución
informática fue -y sigue siendo- la que acarreó grandes cambios y
multiplicó las modalidades en los formatos artísticos de los últimos
años. Hoy, apenas saliendo de la era del video como nueva tecnología,
la informática ha brindado un sinnúmero de nuevas herramientas y
posibilidades a los artistas visuales y sonoros. Sin embargo, es
indudable que estamos viviendo los albores de una nueva revolución: la
genética. Esta, sin olvidar su inherente dimensión ética, nos ofrece la
posibilidad de esculpir la propia naturaleza orgánica, creando obras
“vivientes”, modeladas según nuestro propio deseo.
Todo lo
expresado usa la tecnología como medio, como herramienta. No obstante,
en algunas ocasiones es la propia tecnología la que se convierte en
objeto artístico. Sucede que la aparición de un nuevo medio suele ser
tan relevante que el sólo hecho de mostrarlo implica el impacto de lo
inédito, creyendo que así funciona como obra. Este fenómeno nos impele a
re-preguntarnos por el hecho artístico en así, ya que esta etapa
inaugural o de “descubrimiento” de un nuevo medio debe conllevar una
carga de sentido y poeticidad para que exista una “obra de arte”, que
luego puede (o no) adquirir relevancia y trascendencia.
En muchas
oportunidades, la práctica artística requiere del desarrollo e
investigación científica para poder plasmar cierto tipo de obras, que
-sin este apoyo- permanecerían sólo en la imaginación y fantasía de los
artistas. Esos desarrollos pueden o no tener aplicaciones prácticas
concretas y convertirse en una tecnología pasible de ser utilizada en
forma más amplia. La ciencia en estos casos se ve beneficiada por la
creatividad del arte, abriéndose nuevos caminos tal vez menos evidentes
pero llevando la imaginación un paso más adelante.
Resulta
imposible enumerar todas las alternativas y variaciones de las diversas
expresiones artísticas relacionadas con la ciencia y la tecnología.
Incluso, una clasificación taxativa daría como resultado un cuerpo de
información imperfecto y que entorpecería la inherente deslimitación en
la que éstas prácticas se desarrollan. Por este motivo, a
continuación, daremos sólo algunos ejemplos y comentaremos algunas
obras.
La investigación y el arte
Analizaremos un
proyecto que propone, desde su origen, un trabajo conjunto entre el
desarrollo científico y el arte. El proyecto I-Wear (Ropa Interactiva)
tiene un doble objetivo, por un lado la investigación y por otro lado
un objetivo artístico.
Navegando en la difusa interfase entre la realidad y la ficción, Ropa Interactiva, propone encarar la investigación tecnológica sobre textiles, mecanismos y prendas desde una perspectiva artístico-creativa. Se utiliza el arte como marco para extralimitar las funciones que la tecnología y el diseño adquieren en la actualidad.
La preocupación recae en el plano de lo significativo. Las prendas diseñadas configuran una proposición del tipo discursiva, invitan a una reflexión.
Navegando en la difusa interfase entre la realidad y la ficción, Ropa Interactiva, propone encarar la investigación tecnológica sobre textiles, mecanismos y prendas desde una perspectiva artístico-creativa. Se utiliza el arte como marco para extralimitar las funciones que la tecnología y el diseño adquieren en la actualidad.
La preocupación recae en el plano de lo significativo. Las prendas diseñadas configuran una proposición del tipo discursiva, invitan a una reflexión.

Biología y arte
La naturaleza
ha sido objeto de innumerables expresiones artísticas, pero en general,
ha sido tomada como modelo, como “naturaleza muerta” plasmada en una
escultura o lienzo. Hoy, la “naturaleza viva” puede ser parte de la obra
misma, puede interaccionar con el medio, estar sujeta a conceptos
científicos y hasta puede ser modelada por el público. Las producciones
artísticas pueden estar basadas en elementos orgánicos que pueden
involucrarse en la obra de diferentes modos. Pueden ser complementos
tan solo estéticos, formar parte de un mensaje o bien ser parte de la
obra como elemento fundamental constitutivo de la misma.
El Proyecto
Biosfera es una obra de contenido ambiental. La misión del proyecto es
alertar sobre la fragilidad del planeta. La obra esta formada por un
ecosistema natural herméticamente sellado en una esfera transparente y
esta basada en el concepto de que el mundo esta en nuestras manos.
Algunas biosferas se constituyen en esculturas vivientes expuestas en
espacios públicos, y otras mas pequeñas se entregan a formadores de
opinión para transmitir el concepto de que el mundo esta,
verdaderamente, en sus manos. En otros casos, son objeto de estudios
científicos sobre la evolución de las especies en su interior y del
ecosistema en general.

Arte y Clima
Es de público
conocimiento que estamos ante eventos globales que nos impelen a la
toma de acción inmediata. El arte puede operar como medio de
cuestionamiento, de expresión política, como herramienta para la toma de
conciencia respecto a los derechos de los seres humanos… A lo largo de
su historia, ha tenido, en muchos casos, un objetivo, un fin que
trasciende el mero hecho estético.
Hoy mas que nunca, todos los ámbitos son útiles y necesarios para expresar al mundo la gravedad y urgencia de lo que esta sucediendo.
Hoy mas que nunca, todos los ámbitos son útiles y necesarios para expresar al mundo la gravedad y urgencia de lo que esta sucediendo.
Sunflower - Centinela del Cambio Climático
Es una instalación en la que la ciencia y la tecnología se combinan para proponer un mensaje ambiental y social a través del arte. Posee una instancia material, la escultura en sí, y una virtual, que es un sitio de Internet. Ambas vinculadas de modo complementario Sunflower es una flor solar robotizada que funciona a modo de una estación meteorológica, midiendo variables ambientales y oficiando de testigo ocular a través de sus cámaras. El proyecto Sunflower busca crear una conexión entre los pueblos, el arte y la tecnología, al servicio del medio ambiente.
Es una instalación en la que la ciencia y la tecnología se combinan para proponer un mensaje ambiental y social a través del arte. Posee una instancia material, la escultura en sí, y una virtual, que es un sitio de Internet. Ambas vinculadas de modo complementario Sunflower es una flor solar robotizada que funciona a modo de una estación meteorológica, midiendo variables ambientales y oficiando de testigo ocular a través de sus cámaras. El proyecto Sunflower busca crear una conexión entre los pueblos, el arte y la tecnología, al servicio del medio ambiente.
Foto Sunflower 1 Armado Sunflower en Ushuaia, Argentina
Foto Sunflower 2 Sunflower en Ushuaia, Argentina
Bioarte
Esta nueva rama del arte puede ser muy amplia, no obstante las voces más ortodoxas consideran que bioarte es aquella práctica artística que se vincula con el cultivo tisular, o sea, con el cultivo de tejidos orgánicos y con la biotecnología. En un sentido más amplio, podríamos también incluir cultivos in Vitro,
Esta nueva rama del arte puede ser muy amplia, no obstante las voces más ortodoxas consideran que bioarte es aquella práctica artística que se vincula con el cultivo tisular, o sea, con el cultivo de tejidos orgánicos y con la biotecnología. En un sentido más amplio, podríamos también incluir cultivos in Vitro,
Dentro de la categoría de Bioarte, citaremos algunos ejemplos:
* Proyecto Inmortalidad
Es una instalación que consta de un cyborg formado por la combinación de células de corazón vivas, un sistema robótico y sistemas multimediales. Este conjunto orgánico se convierte metafóricamente en un corazón que tiene como objetivo permanecer latiendo indefinidamente.
Es una instalación que consta de un cyborg formado por la combinación de células de corazón vivas, un sistema robótico y sistemas multimediales. Este conjunto orgánico se convierte metafóricamente en un corazón que tiene como objetivo permanecer latiendo indefinidamente.
Una de las
grandes inquietudes del hombre ha sido perpetuarse a lo largo del
tiempo. Mas allá del espíritu trascendental que nos lleva a pensar en
perdurar a lo largo de nuestra propia vida, se ha especulado en la
posibilidad de que un ser, un organismo en sí mismo, pueda permanecer
vivo, por siempre.


* Arte Multidisciplinario
La complejidad de algunas obras científico-tecnológicas demanda un trabajo en equipo. Durante el Renacimiento aún se podía soñar con el conocimiento universal pero hoy en día es inimaginable pensar en la suma total del saber. Una instalación artística de bioarte como Inmortalidad, requiere de la intervención de la biotecnología, la bioquímica, la robótica, la informática
La complejidad de algunas obras científico-tecnológicas demanda un trabajo en equipo. Durante el Renacimiento aún se podía soñar con el conocimiento universal pero hoy en día es inimaginable pensar en la suma total del saber. Una instalación artística de bioarte como Inmortalidad, requiere de la intervención de la biotecnología, la bioquímica, la robótica, la informática
y la comunicación. A estas disciplinas
científico-tecnológicas se suman las dimensiones estéticas y
conceptuales. Todo este proceso hace que los desarrollos sean de una
complejidad tal que, prácticamente, es imposible realizarlos en forma
unipersonal.
* El arte como motor de la ciencia
El arte no sólo utiliza tecnologías existentes como herramienta de expresión sino que también puede ser el impulsor del desarrollo de nuevas tecnologías y descubrimientos científicos. El arte permite soñar sin ataduras y plantear propuestas que aun no son plausibles de realización.
El arte no sólo utiliza tecnologías existentes como herramienta de expresión sino que también puede ser el impulsor del desarrollo de nuevas tecnologías y descubrimientos científicos. El arte permite soñar sin ataduras y plantear propuestas que aun no son plausibles de realización.
Foto Bioarte 1 Cultivo de Miocardiocitos (Células de corazón)
Bio-Wear
Así como la
evolución limitó al hombre en su capacidad de vestirse naturalmente,
Bio-Wear tiene como objetivo desarrollar algún tipo de prenda a partir
de las propias células humanas. Hoy este concepto forma parte de la
ciencia ficción pero el sector científico esta siendo consultado para
plantear una posible senda de investigación para adaptar tecnologías
actuales o desarrollar nuevas en función de estas ideas.
COMO REDACTAR UN INFORME
COMO REDACTAR UN INFORME
Un informe es un escrito que tiene como fin el de comunicar y dar cuenta de una situación desde diferentes perspectivas, es decir, de algo sobre lo que se está realizando una investigación exhaustiva. Un informe puede ser solicitado en cualquier ámbito, ya sea en el laboral, el estudiantil, el universitario, el comercial, etc., pero para elaborarlos de manera adecuada es fundamental tener en cuenta algunos pasos.
Un informe es un escrito que tiene como fin el de comunicar y dar cuenta de una situación desde diferentes perspectivas, es decir, de algo sobre lo que se está realizando una investigación exhaustiva. Un informe puede ser solicitado en cualquier ámbito, ya sea en el laboral, el estudiantil, el universitario, el comercial, etc., pero para elaborarlos de manera adecuada es fundamental tener en cuenta algunos pasos.
Instrucciones
-
Un informe debe ser elaborado con un lenguaje claro, preciso, concreto y objetivo. Se debe evitar incluir apreciaciones personales haciendo uso de formas verbales como: creo, pienso, me gustaría, deseo, etc., las cuales deben ser sustituidas por otras como: se observa, se ha analizado, se procedió, etc.
-
Hay diferentes tipos de informes, y estos pueden ser expositivos, interpretativos o demostrativos.
- El informe expositivo es una secuencia de hechos narrada sin análisis e interpretaciones del autor, debe contener antecedentes que ayuden a comprender lo que se narra, por ejemplo la venta de productos en tiendas comerciales.
- El informe interpretativo analiza las situaciones para sacar conclusiones y poder dar las recomendaciones oportunas., por ejemplo realizar la evaluación sobre prácticas pedagógicas.
- El informe demostrativo es el que se plantea después de un estudio, se describen los pasos seguidos, las conclusiones obtenidas, también recibe el nombre de científico o técnico.
-
Concretamente, la realización de un informe debe contar con las siguientes fases: fijar el objetivo, seleccionar la información, analizar esta última, evaluar y verificar, estructurar el informe, y proceder a trabajar en el mismo.
-
Para fijar el objetivo, hazte estas preguntas: ¿Para quién es el informe?, ¿Cuál es el uso que le va a dar?, ¿Qué es lo que se quiere conocer?, ¿Qué conocimientos tiene del tema?
-
Define la fase preliminar de las actividades que vas a realizar para lograr los criterios de evaluación propuestos. Determina las fuentes de la información, los recursos humanos y los recursos materiales para extraer los datos. Una vez extraídos, analiza toda la información seleccionada, organízala y empieza a hacer comparaciones.
-
Evalúa los datos y procede a verificar los mismos, consolida la información, organiza y elabora el informe escrito.
-
La estructura del informe se divide en tres partes:
- La introducción responde a las preguntas: ¿para qué? ¿por qué? y ¿con qué?
- El desarrollo presenta los procedimientos o metodología utilizada para recopilar la información, responde a la pregunta ¿cómo?
- La conclusión es donde se presentan los resultados obtenidos, responde a la pregunta ¿qué se encontró? y ¿qué debe hacerse?
-
Como recomendaciones generales para aplicar a tu informe, te damos las siguientes: el informe debe ser objetivo, no se acepta la subjetividad, menciona todos los datos posibles, sé organizado, describe con detalle cada paso seguido, cita las fuentes de información que has consultado, escribe párrafos cortos, claros, precisos y concretos, expón de forma precisa, y presenta tu informe.
LAS 15 MOTOCICLETAS MAS CARAS DEL MUNDO
Las 15 Motocicletas MÁS CARAS del Mundo 2013

A medida del progesos del motociclismo en
el mundo, sus motores y sus marcos se hicieron más grandes y más
elegantes; también se hicieron más rápidas y más potentes, lo que
resultó en estas súper motocicletas con la más alta tecnología y
exuberantes precios de hoy. Si puedes pagarlo, una moto hecha a la
medida con tus exactas especificaciones, de seguro estará a vuestro
alcance. Aquí estan las 15 motocicletas más caras del mundo en el 2013:
#15. VYRUS 987 C3 4V V – $103,769 [€78,000]

Esta es una creación de Ascanio Rodorigo que solía trabajar para Bimota en los años 80. La moto está propulsado por un motor Ducati V-twin de 1198cc.
#14. MV AGUSTA F4CC – $120,000 [€90,000]

La Agusta F4CC cuenta un motor de 1078cc lo suficientemente competentes para producir 203PS de potencia y permitir a esta moto alcanzar una velocidad máxima de 315 km/h (196 mph).
#13. YAMAHA ROADSTAR BMS CHOPPER – $128,800 [€96,500]

Está Yamaha cuenta un motor OHV 48 twin de 102 pulgadas cúbicas, enfriado por aire con gran cantidades de torque y es fantástica en rendimiento general.
#12. NCR MH TT – $130,000 [€97,500]

La MH TT es una réplica moderna de la Ducati 900 NCR. Es súper ligeras pesa tan sólo 136kg graias a materiales de titanio y fibra de carbono utilizados en su fabricación. Tiene un motor de 1120cc con un marco de titanio que pesa sólo 5kg.
#11. CONFEDERATE B120 WRAITH – $135,000 [€101,000]

Ni siquiera se parece remotamente a ninguna motocicleta estándar ahora mismo en las calles y una de las más caras motos en producción en el mundo. Cuenta con dettales como: chasis inspirado de aviones, marco de fibra de carbono, enorme tenedor hecho a mano y ruedas de siete radios.
#10. CONFEDERATE R135 WRAITH COMBAT – $140,800 [€105,500]

Con creación futuristas y poca información acerca, la increíble moto está limitada a sólo 7 unidades en total para todo el mundo.
#9. NCR LEGGERA 1200 TITANIUM SPECIAL – $145,000 [€109,000]

Con modificaciones en su motor que incluyen: válvulas de titanio, tapa de motor de magnesio y cilindros más grandes, lo caul han dado lugar a una potencia total de 140 caballos de fuerza.
#8. MTT TURBINE SUPERBIKE – $155,000 [€116,250]

Impulsada por un mega poderoso motor de turbina de gas “Rolls Royce Allison”, la MTT SUPERBIKE entrega más de 300 caballos de fuerza, 425 par de torque y ha registrado velocidad récord de 370 km/h (227 mph).
#7. ICON SHEENE 1400CC – $212,000 [€159,000]

La ICON SHEENE es una de las más potente moto en producción del mundo, cuenta con motor turbo Suzuki 1400cc de 4 cilindros, el cual entrega de más de 250 caballos de fuerza.
#6. NCR MACCHIA NERA – $225,000 [€169,000]

La Macchia Nera o en italiano el “punto negro” es la última expresión del diseñador Aldo Drudi en está motocicleta moldeada con fibra de carbono y titanio.
#5. NCR M16 – $232,500 [€174,000]

Cuenta con marco de fibra de carbono, basculante y frenos de material compuesto de matriz cerámica y un calibración especial (Ohlins) para darle más poder en la pista.
#4. ECOSSE HERETIC TITANIUM – $282,000 [€211,500]

Tiene un motor sobrealimentado de 2150cc, combustible inyectado e intercooler, al tiempo que genera 200 caballos de fuerza.
#3. ECOSSE TITANIUM SERIES FE TI XX – $307,000 [€230,500]

Está impulsada por un motor de aluminio de 2.4 litros cual produce 225 caballos de fuerza.
#2. DODGE TOMAHAWK V10 – $550,000 [€420,000]

Con increíble diseño Art Deco fue fabricada en las intalaciones de Chrysler por el diseñador Mark Walters. Cuenta con un motor V10 SRT10 del Dodge Viper de 500 caballos de fuerza, 8.3 litros (510 pulgadas cúbicas).
#1. ECOSSE SPIRIT ES1 – $3,690,000 [€2,765,000]
Suscribirse a:
Entradas (Atom)