sábado, 24 de enero de 2015

HISTORIA DE LA TELEVISION

Televisión

La televisión es un sistema para la transmisión y recepción de imágenes en movimiento y sonido a distancia que emplea un mecanismo de difusión. La transmisión puede ser efectuada por medio de ondas de radio, por redes de televisión por cable, televisión por satélite o IPTV, de los que existen en modalidades abierta y paga. El receptor de las señales es el televisor.
La palabra «televisión» es un híbrido de la voz griega τῆλε (tēle, «lejos») y la latina visiōnem (acusativo de visiō «visión»). El término televisión se refiere a todos los aspectos de transmisión y programación de televisión. A veces se abrevia como TV. Este término fue utilizado por primera vez en 1900 por Constantin Perskyi en el Congreso Internacional de Electricidad de París (CIEP).
La televisión es el medio de comunicación de masas por excelencia, de manera que la reflexión filosófica sobre ellos, se aplica a ésta.
El Día Mundial de la Televisión se celebra el 21 de noviembre en conmemoración de la fecha en que se celebró en 1996 el primer Foro Mundial de Televisión en las Naciones Unidas.


Televisor Braun HF 1, un modelo alemán de los años 1950.
Los servicios de provisión de contenidos en la modalidad de Vídeo sobre Demanda y/o Internet Streaming no se clasifican como servicios de Televisión. La aparición de televisores que pueden conectarse a Internet en los últimos años de la primera década del siglo XXI, abre la posibilidad de la denominada Televisión inteligente en donde se mezclan y conjugan contenidos de la transmisión convencional (broadcast) con otros que llegan vía Internet.

VERSIONES WINDOWS

Definición de sistema operativo Windows®
VERSIONES WINDOWS

  Es un conjunto de programas y archivos auxiliares desarrollados por la empresa Microsoft®, que permiten la interactividad entre el usuario y la computadora, comportándose como un intérprete entre el lenguaje humano y el lenguaje máquina. También se encarga de la administración de los dispositivos, así como la carga y ejecución de aplicaciones 
- Sistema operativo Microsoft® Windows
    La empresa Microsoft® a través del tiempo ha creado distintas versiones de sistemas operativos denominadas ventanas (Windows), acorde al momento tecnológico, ya que es necesario que se adapte de manera correlacionada con el Hardware del momento y los nuevos programas que utiliza el usuario.
     Hubo una discusión a mediados de los 90´s sobre el tema del sistema operativo Windows®; sobre si se trata de un subsistema operativo ó un sistema operativo como tal. Esto porque para la ejecución del sistema operativo Windows®, primeramente carga el sistema operativo Ms-DOS® ó una versión del mismo, sobre la cuál se termina de cargar el primero. Se muestran las versiones mas comerciales a nivel doméstico empresarial y que son representativas de cada una, es decir, como ejemplo, bajo la gama del sistema operativo Windows® 98 hubo una segunda versión de sistema operativo Windows® 98SE (Segunda edición).

- Características del sistema operativo Windows® 10
      A inicios de Octubre de 2014 se anuncia la presentación de la versión Preview del nuevo sistema operativo Microsoft® Windows, que contrario a todo lo esperado, no se llamar Windows 9, sino Windows 10. A diferencia de su antecesor Windows 8, ya contará desde su distribución con el botón de inicio sin necesidad de una actualización. También se prevé que contará con multi-escritorios, algo que es totalmente nuevo y que no se había visto en versiones anteriores de la marca pero si en distribuciones de Linux, además de corregir aquellas fallas que se encontraron en la versión de Windows 8.
      De igual manera que su antecesor, buscará estar enfocado a dar al usuario una excelente experiencia de uso en pantallas táctiles (Smartphone y Tablet), se espera que la versión comercial de este sistema operativo se encuentre disponible a mediados de 2015. 

Acorde a las tendencias de la desaparición física de elementos como las pantallas, teclados y ratones (mouse) y ser sustituidos virtualmente en las pantallas de las Tablet y/o los Smartphone, Microsoft® se ha dedicado a desarrollar su nueva interfaz de sistema operativo orientada a esta tendencia, así mismo se conjuga con las nuevas tecnologías USB 3.0 y las versiones Portables ó portátiles como Windows® To Go, para poder utilizar las características aunque no se encuentre la persona con su equipo personal y sólo con un dispositivo Pendrive USB en otra PC, así mismo ya cuenta con el explorador de Internet Explorer® 10 y 11 en la versión del sistema operativo Windows 8.1, la cuál acorde a los requerimientos de los usuarios, ya cuenta con botón de inicio.
   El logo de Windows ha sido cambiado (Revisa esta liga que explica un poco el tema), es un cambio radical totalmente en el diseño y funcionalidad de los gráficos en pantalla, sin duda un excelente competidor contra el actual popular sistema operativo Android™ de Google® y la interface Gnome en Linux Ubuntu.
2.- Escritorio del sistema operativo Windows® 8
Los requerimientos según la página oficial de Microsoft® son:
+ Microprocesadores con arquitectura 32 y 64 bits x-86, compatible con PAE, NX y SSE2
+ Memoria RAM: 1 Gb para 32 bits ó 2 Gb para 64 bits.
+ Resolución de pantalla de 1366 × 768
+ Gráficos: GPU DirectX 9 con Windows Display Driver Model (WDDM) 1.0
+ Disco duro: 16 Gb  para 32 bits) y 20 Gb para 64 bits.
+ PC con ratón y teclado y/o pantalla táctil certificada por la marca Microsoft®  para mejorar la experiencia multi-Touch, es importante mencionar que se indica lo siguiente: "Las versiones de ensambladores de equipos de Windows® 8 requieren hardware certificado para Windows® 8 para habilitar la funcionalidad táctil".
+ Para Windows® Touch y el uso de Tablet PCs requieren hardware específico.
     Nota: el sistema operativo Windows® Server 2012 (Versión para servidores) es la versión paralela al sistema operativo Windows® 8 (Versiones Domésticas-Empresariales)

HISTORIA DE LINUX

HISTORIA DE LINUX

LINUX es un sistema operativo, compatible Unix. Dos caracteristicas muy peculiares lo diferencian del resto de los sistemas que podemos encontrar en el mercado, la primera, es que es libre, esto significa que no tenemos que pagar ningun tipo de licencia a ninguna casa desarrolladora de software por el uso del mismo, la segunda, es que el sistema viene acompañado del codigo fuente. El sistema lo forman el nucleo del sistema (kernel) mas un gran numero de programas / librerias que hacen posible su utilizacion.
LINUX se distribuye bajo la GNU Public License: Ingles , por lo tanto, el codigo fuente tiene que estar siempre accesible.
El sistema ha sido diseñado y programado por multitud de programadores alrededor del mundo. El nucleo del sistema sigue en continuo desarrollo bajo la coordinacion de Linus Torvalds, la persona de la que partio la idea de este proyecto, a principios de la decada de los noventa.
Dia a dia, mas y mas programas / aplicaciones estan disponibles para este sistema, y la calidad de los mismos aumenta de version a version. La gran mayoria de los mismos vienen acompanados del codigo fuente y se distribuyen gratuitamente bajo los terminos de licencia de la GNU Public License.
En los ultimos tiempos, ciertas casas de software comercial han empezado a distribuir sus productos para Linux y la presencia del mismo en empresas aumenta rapidamente por la excelente relacion calidad-precio que se consigue con Linux.
Las plataformas en las que en un principio se puede utilizar Linux son 386-, 486-. Pentium, Pentium Pro, Pentium II/III/IV, Amiga y Atari, tambien existen versiones para su utilizacion en otras plataformas, como Alpha, ARM, MIPS, PowerPC y SPARC.

2.- Historia

Tux CabernicolaLINUX hace su aparicion a principios de la decada de los noventa, era el año 1991 y por aquel entonces un estudiante de informatica de la Universidad de Helsinki, llamado Linus Torvalds empezo, como una aficion y sin poderse imaginar a lo que llegaria este proyecto, a programar las primeras lineas de codigo de este sistema operativo llamado LINUX.
Este comienzo estuvo inspirado en MINIX, un pequeño sistema Unix desarrollado por Andy Tanenbaum. Las primeras discusiones sobre Linux fueron en el grupo de noticias comp.os.minix, en estas discusiones se hablaba sobre todo del desarrollo de un pequeño sistema Unix para usuarios de Minix que querian mas.
Linux nunca anuncio la version 0.01 de Linux (agosto 1991), esta version no era ni siquiera ejecutable, solamente incluia los principios del nucleo del sistema, estaba escrita en lenguaje ensamblador y asumia que uno tenia acceso a un sistema Minix para su compilacion.
El 5 de octubre de 1991, Linus anuncio la primera version "Oficial" de Linux, -version 0.02. Con esta version Linus pudo ejecutar Bash (GNU Bourne Again Shell) y gcc (El compilador GNU de C) pero no mucho mas funcionaba. En este estado de desarrollo ni se pensaba en los terminos soporte, documentacion, distribucion .....
Despues de la version 0.03, Linus salto en la numeracion hasta la 0.10, mas y mas programadores a lo largo y ancho de internet empezaron a trabajar en el proyecto y despues de sucesivas revisiones, Linus incremento el numero de version hasta la 0.95 (Marzo 1992). Mas de un año despues (diciembre 1993) el nucleo del sistema estaba en la version 0.99 y la version 1.0 no llego hasta el 14 de marzo de 1994.
La serie actual del nucleo es la 2.4.x y sigue avanzando dia a dia con la meta de perfeccionar y mejorar el sistema.

3.- Algunas de sus características

Tux Indicando- Multitarea: La palabra multitarea describe la habilidad de ejecutar varios programas al mismo tiempo.
LINUX utiliza la llamada multitarea preeventiva, la cual asegura que todos los programas que se estan utilizando en un momento dado seran ejecutados, siendo el sistema operativo el encargado de ceder tiempo de microprocesador a cada programa.
- Multiusuario: Muchos usuarios usando la misma maquina al mismo tiempo.
- Multiplataforma: Las plataformas en las que en un principio se puede utilizar Linux son 386-, 486-. Pentium, Pentium Pro, Pentium II,Amiga y Atari, tambien existen versiones para su utilizacion en otras plataformas, como Alpha, ARM, MIPS, PowerPC y SPARC.
- Multiprocesador: Soporte para sistemas con mas de un procesador esta disponible para Intel y SPARC.
- Funciona en modo protegido 386.
- Protección de la memoria entre procesos, de manera que uno de ellos no pueda colgar el sistema.
- Carga de ejecutables por demanda: Linux sólo lee del disco aquellas partes de un programa que están siendo usadas actualmente.
-Política de copia en escritura para la compartición de páginas entre ejecutables: esto significa que varios procesos pueden usar la misma zona de memoria para ejecutarse. Cuando alguno intenta escribir en esa memoria, la página (4Kb de memoria) se copia a otro lugar. Esta política de copia en escritura tiene dos beneficios: aumenta la velocidad y reduce el uso de memoria.
-Memoria virtual usando paginación (sin intercambio de procesos completos) a disco: A una partición o un archivo en el sistema de archivos, o ambos, con la posibilidad de añadir más áreas de intercambio sobre la marcha Un total de 16 zonas de intercambio de 128Mb de tamaño máximo pueden ser usadas en un momento dado con un límite teórico de 2Gb para intercambio. Este limite se puede aumentar facilmente con el cambio de unas cuantas lineas en el codigo fuente.

4.- Distribuciones de Linux

Tux vendedorLinux es un sistema de libre distribución por lo que podeis encontrar todos los ficheros/programas necesarios para su funcionamiento en multitud de servidores conectados a Internet. La tarea de reunir todos los ficheros/programas necesarios, asi como instalarlos en tu sistema, puede ser una tarea bastante complicada y no apta para muchos. Por esto mismo, nacieron las llamadas distribuciones de Linux, empresas que se dedican a hacer el trabajo "sucio" para nuestro beneficio y comodidad.
Una distribución no es otra cosa, que una recopilación de programas y ficheros, organizados y preparados para su instalación. Estas distribuciones se pueden obtener a traves de Internet, o comprando los CDs de las mismas, los cuales contendrán todo lo necesario para instalar un sistema Linux bastante completo y en la mayoría de los casos un programa de instalación que nos ayudara en la tarea de una primera instalación. Casi todos los principales distribuidores de Linux, ofrecen la posibilidad de bajarse sus distribuciones, via FTP (sin cargo alguno).
Existen varias distribuciones creadas por diferentes empresas a unos precios bastantes asequibles (si se compran los CDs, en vez de bajársela via FTP), las cuales deberiais de poder encontrar en tiendas de informática o librerías. En El siguiente enlace teneis una lista con las empresas que distribuyen distribuciones en España y Centro/Sur américa. En el peor de los casos siempre podeis encargarlas directamente por Internet a las empresas que las crean. A veces, las revistas de informática sacan una edición bastante aceptable de alguna distribución.
Si vais a instalar el sistema por primera vez, os recomiendo haceros con una de estas distribuciones y en un futuro cuando querais actualizar el sistema con las últimas versiones y actualizaciones del núcleo y programas que utiliceis, usar Interne

Red Hat - FedoraPara muchos el nombre de Red Hat equivale a Linux, ya que probablemente se trata de la compañía de linux más popular del mundo. Fundada en 1995 por Bob Young y Marc Ewing, red Hat Inc solo ha mostrado beneficios recientemente gracias a otros servicios en lugar de a la distribución en si. Aun y así, Red Hat es la primera elección para muchos profesionales y parece que seguirá siendo un peso pesado durante mucho tiempo.
Afortunadamente se resistieron a realizar ningún plan de rápida expansión durante el boom de las punto-com durante los años 1998 - 1999, concentrándose en su negocio principal. Este tipo de gestión prudente si sigue así, es propensa a garantizar estabilidad y dependencia..
¿Qué hace a Red Hat Linux tan especial? Su curiosa mezcla de conservadurismo y paquetes punteros mezclados sobre muchas aplicaciones desarrolladas en casa. Los paquetes no son los más actuales, una vez se anuncia una nueva versión beta, las versiones de los paquetes se mantienen, excepto para actualizaciones de seguridad. Como resultado se obtiene una distribución bien probada y estable. El programa de betas y las facilidades para enviar fallos están abiertas al público y hay un gran espíritu en las listas de correo públicas.
Actualmente Red Hat ha dividido el negocio en dos áreas distintas, por una parte promociona el proyecto Fedora para usuarios finales, el cual saca tres versiones al año, manteniendo los paquetes de Red Hat para usuarios corporativos, que se mantienen más tiempo, y garantizan su estabilidad.
Red Hat Linux se ha convertido en la distribución linux dominante en servidores en todo el mundo.. Otra de las razones del éxito de Red Hat es la gran variedad de servicios populares que ofrece la compañía. Los paquetes de software son fácilmente actualizables usando la Red Hat Network, un repositorio oficial de software e información. Una larga lista de servicios de soporte son accesibles en la compañía y, aunque no siempre baratos, tienes virtualmente asegurado un excelente soporte de personal altamente cualificado. La compañía ha desarrollado incluso un programa de certificación para popularizar su distribución, el RHCE (Certificado de Ingeniería de Red Hat), academias y centros examinadores están disponibles en el casi todas partes del mundo.

Mandrake linux

Mandrake linuxMandrake Linux (antiguo nombre de Mandriva), creada por Gaël Duval, es una distribución que ha experimentado un enorme aumento de popularidad desde su primera versión de julio de 1998. Los desarrolladores partieron de la distribución de Red Hat, cambiaron el entorno de escritorio pRedeterminado por KDE, y añadieron un instalador fácil de usar rompiendo el mito de que linux es dificil de instalar. Las herramientas de detección de hardware de Mandrake y sus programas para el particionamiento de discos son consideradas por muchos como las mejores de la industria, y muchos usuarios se encotraron usando Mandrake allí dode otras distribuciones no habían conseguido entregar la usabilidad necesaria.Desde entonces Mandrake Linux ha madurado y se ha convertido en una distribución popular entre los nuevos usuarios de linux y aquellos hogares que buscan un sistema operativo alternativo.
En el 2005-04-07 mandrake compra conectiva linux, distribución muy extendida por sudamerica, y se cambia el nombre para reflejar el cambio en la distribución a mandriva.
El desarrollo de Madriva es completamente abierto y transparente, con paquetes nuevos que se añaden al direcotrio llamado "cooker" a diario. Cuando una nueva versión entra en fase beta, la primera beta se crea a partir de los paquetes que se encuentran en "cooker" en ese momento. El proceso de pruebas de la beta solía ser corto e intensivo, pero desde la versión 9.0 ha pasado ha ser más largo y exigente. Las listas de correo sobre la versión beta suelen estar saturadas, pero sigue siendo posible recibir una respuesta rápida sobre cualquier fallo o duda que envíes.Como resultado de este tipo de desarrollo se obtiene una distribución puntera y altamente actualizada. Como contrapartida, los usuarios pueden encontrarse con más fallos que en otras distribuciones.

Debian

DebianDebian GNU/Linux inició su andadura de la mano de Ian Murdock en 1993. Debian es un proyecto totalmente no-comercial; posiblemente el más puro de los ideales que iniciaron el movimiento del software libre. Cientos de desarrolladores voluntarios de alRededor del mundo contribuyen al proyecto, que es bien dirigido y estricto, asegurando la calidad de una distribución conocida como Debian.En cualquier momento del proceso de desarrollo existen tres ramas en el directorio principal: "estable", "en pruebas" e "inestable" (también conocida como "sid").
Cuando aparece una nueva versión de un paquete, se sitúa en la rama inestable para las primeras pruebas, si las pasa, el paquete se mueve a la rama de pruebas, donde se realiza un riguroso proceso de pruebas que dura muchos meses. Esta rama solo es declarada estable tras una muy intensa fase de pruebas.
Como resultado de esto, la distribución es posiblemente la más estable y confiable, aunque no la más actualizada. Mientras que la rama estable es perfecta para servidores con funciones críticas, muchos usuarios prefieren usar las ramas de pruebas o inestable, más actualizadas, en sus ordenadores personales. Debian es también famosa por su reputación de ser dificil de instalar, a menos que el usuario tenga un profundo conocimiento del hardware de la computadora. Compensando este fallo está "apt-get" un instalador de paquetes Debian. Muchos usuarios de Debian hacen bromas sobre que su instalador es tan malo por que solo lo han de usar una vez, tan pronto como Debian está en funcionamiento, todas las actualizaciones, de cualquier tipo pueden realizarse mediante la herramienta apt-get.

Knoppix

KnoppixDesarrollada por Klaus Knopper en Alemania, es seguro que esta distribución basada en Debian ha puesto muy alto el listón, especialmente con su detección automática de hardware que deja a la altura del barro la de muchas distribuciones comerciales. Su arranque automático, gran cantidad de software, su sitema de decompresión al vuelo y la posibilidad de instalarlo al disco duro han convertido a knoppix en una herramienta indispensable. Puede ser usada como un disco de rescate, una herramienta para enseñar linux para aquellos que no lo han visto o una herramienta para probar una nueva computadora antes de comprarla. También puede ser usada como una completa distribución linux para el uso diario.
Se realizan actualizaciones con frecuencia, pero una vez ha adquirido estabilidad, estas suelen distanciarse entre si por varios meses. Las actualizaciones incluyen parches de fallos así como el último software de la rama inestable de Debian. Actualmente se ha pasado a soporte DVD para poder incluir todos aquellos paquetes que no cabían en un CD-Rom.

SuSE - Novell Linux Desktop

SuSE - Novell Linux DesktopSuSE es otra compañía orientada a los escritorios, aunque variedad de otros productos para empresas están disponibles. La distribución ha recibido buenas críticas por su instalador y la herramienta de configuración YaST, desarrollada por los desarrolladores de la propia SuSE. La documentación que viene con las versiones comerciales, ha sido repetidas veces evaluada como la más completa, útil y usable con diferencia a la de sus competidores. SuSE Linux 7.3 recibió el premio "Producto del año 2001" que entrega el Linux Journal. La distribución tiene un gran porcentaje de mercado en Europa yAmérica del norte, pero no se vende en Asia y otras partes del mundo.
El desarrollo de SuSE se realiza completamente a puerta cerrada, y no se lanzan betas públicas para probar. Siguen la política de no permitir descargar el software hasta tiempo después de que salgan a la venta las versiones comerciales. A pesar de todo, SuSE no entrega imagenes ISO de fácil instalación de su distribución, usando el software empaquetado para la gran mayoría de su base de usuarios.
Novell ha comprado a esta compañía, y esta haciendo inversiones importantes en mantener y desarrollar esta distribución, a nivel corporativo, pero sin olvidarse del usuario final (Compra de Ximan, y la reciente liberación del instalador YaST bajo licencia GPL), y ha seguido la misma estrategia que Redhat, dejando SuSE para SOHO (Small Ofice, home, en español, pequeñas oficinas y usuarios domesticos), y crenado una distribución para entornos empresariales (Novel linux desktop para escritorio, basada en gnome, y Novell Open Enterprise Server, para servidores).

VERSIONES DE ANDROID Y NIVELES DE API

Las versiones de Android y niveles de API

Antes de empezar a proyecto en Android hay que elegir la versión del sistema para la que deseamos realizar la aplicación. Es muy importante observar que hay clases y métodos que están disponibles a partir de una versión, si las vamos a usar hemos de conocer la versión mínima necesaria.
Cuando se ha lanzado una nueva plataforma siempre ha sido compatible con las versiones anteriores. Es decir, solo se añaden nuevas funcionalidades y en el caso de modificar alguna funcionalidad no se elimina, se etiquetan como obsoletas pero se pueden continuar utilizando.
A continuación se describen las plataformas lanzadas hasta la fecha con una breve descripción de las novedades introducidas. Las plataformas se identifican de tres formas alternativas: versión, nivel de API y nombre comercial.  El nivel de API corresponde a números enteros comenzando desde 1. Para los nombres comerciales se han elegido postres en orden alfabético Cupcake (v1.5), Donut (v1.6), Éclair (v2.0), Froyo (v2.2), Gingerbread (v2.3), … Las dos primeras versiones, que hubieran correspondido a las letras A y B, no recibieron nombre.

Las primeras versiones

Android 1.0 Nivel de API 1 (septiembre 2008)
Primera versión de Android. Nunca se utilizó comercialmente, por lo que no tiene mucho sentido desarrollar para esta plataforma.
Android 1.1 Nivel de API 2 (febrero 2009)
 No se añadieron apenas funcionalidades simplemente se fijaron algunos errores de la versión anterior. Es la opción a escoger si queremos desarrollar una aplicación compatible con todos los dispositivos Android. No obstante apenas existen usuarios con esta versión.

Cupcake

Android 1.5 Nivel de API 3 (abril 2009)
Es la primera versión con algún usuario, aunque en la actualidad apenas quedan. Como novedades, se incorpora la posibilidad de teclado en pantalla con predicción de texto, los terminales ya no tienen que tener un teclado físico, así como la capacidad de grabación avanzada de audio y vídeo. También aparecen los widgets de escritorio y live folders. Incorpora soporte para bluetooth estéreo, por lo que permite conectarse automáticamente a auriculares bluetooth. Las transiciones entre ventanas se realizan mediante animaciones.

Donut

Android 1.6 Nivel de API 4 (septiembre 2009)
Permite capacidades de búsqueda avanzada en todo el dispositivo. También se incorpora gestures y la síntesis de texto a voz. Asimismo, se facilita que una aplicación pueda trabajar con diferentes densidades de pantalla. Soporte para resolución de pantallas WVGA. Aparece un nuevo atributo XML, onClick, que puede especificarse en una vista. Soporte para CDMA/EVDO, 802.1x y VPNs.

Éclair

Android 2.0 Nivel de API 5 (octubre 2009)
Esta versión de API apenas cuenta con usuarios, dado que la mayoría de fabricantes pasaron directamente de la versión 1.6 a la 2.1. Como novedades cabría destacar que incorpora un API para manejar el bluetooth 2.1. Nueva funcionalidad que permite sincronizar adaptadores para conectarlo a cualquier dispositivo. Ofrece un servicio centralizado de manejo de cuentas. Mejora la gestión de contactos y ofrece más ajustes en la cámara. Se ha optimizado la velocidad de hardware. Se aumenta el número de tamaños de ventana y resoluciones soportadas. Nueva interfaz del navegador y soporte para HTML5. Mejoras en el calendario y soporte para Microsoft Exchange. La clase MotionEvent ahora soporta eventos en pantallas multitáctil.
Android 2.1 Nivel de API 7 (enero 2010)
Se considera una actualización menor, por lo que la siguieron llamando Éclair. Destacamos el reconocimiento de voz, que permite introducir un campo de texto dictando sin necesidad de utilizar el teclado. También permite desarrollar fondos de pantalla animados. Se puede obtener información sobre la señal de la red actual que posea el dispositivo. En el paquete WebKit se incluyen nuevos métodos para manipular bases de datos almacenadas en Internet.

Froyo

Android 2.2 Nivel de API 8 (mayo 2010)
Como característica más destacada se puede indicar la mejora de velocidad de ejecución de las aplicaciones (ejecución del código de la CPU de 2 a 5 veces más rápido que en la versión 2.1 de acuerdo a varios benchmarks). Esto se consigue con la introducción de un nuevo compilador JIT de la máquina Dalvik.
Se añaden varias mejoras relacionadas con el navegador Web, como el soporte de Adobe Flash 10.1 y la incorporación del motor Javascript V8 utilizado en Chrome.
El desarrollo de aplicaciones permite las siguientes novedades: se puede preguntar al usuario si desea instalar una aplicación en un medio de almacenamiento externo (como una tarjeta SD), como alternativa a la instalación en la memoria interna del dispositivo. Las aplicaciones se actualizan de forma automática cuando aparece una nueva versión. Proporciona un servicio para la copia de seguridad de datos que se puede realizar desde la propia aplicación para garantizar al usuario el mantenimiento de sus datos. Por último, se facilita que las aplicaciones interaccionen con el reconocimiento de voz y que terceras partes proporcionen nuevos motores de reconocimiento.
Se mejora la conectividad: ahora podemos utilizar nuestro teléfono para dar acceso a Internet a otros dispositivos (tethering), tanto por USB como por Wi-Fi. También se añade el soporte a Wi-Fi IEEE 802.11n y notificaciones push.
Se añaden varias mejoras en diferentes componentes: En el API gráfica OpenGL ES se pasa a soportar la versión 2.0. Para finalizar, permite definir modos de interfaz de usuario (“automóvil” y “noche”) para que las aplicaciones se configuren según el modo seleccionado por el usuario.

Gingerbread

Android 2.3 Nivel de API 9 (diciembre 2010)
Debido al éxito de Android en las nuevas tabletas ahora soporta mayores tamaños de pantalla y resoluciones (WXGA y superiores).
Incorpora un nuevo interfaz de usuario con un diseño actualizado. Dentro de las mejoras de la interfaz de usuario destacamos la mejora de la funcionalidad de “cortar, copiar y pegar” y un teclado en pantalla con capacidad multitáctil.
Se incluye soporte nativo para varias cámaras, pensado en la segunda cámara usada en videoconferencia. La incorporación de esta segunda cámara ha propiciado la inclusión de reconocimiento facial para identificar el usuario del terminal.
La máquina virtual de Dalvik introduce un nuevo recolector de basura que minimiza las pausas de la aplicación, ayudando a garantizar una mejor animación y el aumento de la capacidad de respuesta en juegos y aplicaciones similares. Se trata de corregir así una de las lacras de este sistema operativo móvil, que en versiones previas no ha sido capaz de cerrar bien las aplicaciones en desuso. Se dispone de mayor apoyo para el desarrollo de código nativo (NDK).También se mejora la gestión de energía y control de aplicaciones. Y se cambia el sistema de ficheros, que pasa de YAFFS a ext4.
Entre otras novedades destacamos en soporte nativo para telefonía sobre Internet VoIP/SIP. El soporte para reproducción de vídeo WebM/VP8 y codificación de audio AAC. El soporte para la tecnología NFC. Las facilidades en el audio, gráficos y entradas para los desarrolladores de juegos. El soporte nativo para más sensores (como giroscopios y barómetros). Un gestor de descargas para las descargas largas.

 Honeycomb

CIENCIAS SOCIALES

CIENCIAS SOCIALES



El Instituto de Ciencia Política es un departamento de la Facultad de Ciencias Sociales dedicado al cultivo sistemático de la disciplina, desde una perspectiva que resalta la especificidad y la relativa autonomía del acontecer político. Este cometido se cumple mediante la enseñanza de grado y de posgrado, la investigación científica, las publicaciones especializadas y el intercambio docente, la extensión universitaria y la divulgación del conocimiento en la materia.
En su condición de entidad académica, el Instituto constituye un lugar público de encuentros, que convoca a los especialistas del ramo, a los funcionarios de gobierno, a los agentes de partido y a los diversos actores sociales, en un espectro amplio y plural, promoviendo el análisis de los problemas políticos, la trasmisión de experiencias y el debate de ideas.
Está dirigido por el Encargado de Dirección y la Comisión de Gestión Académica que dependen jerárquicamente del Consejo de la Facultad de Ciencias Sociales de la Universidad de la República.
El Instituto nació en la Facultad de Derecho, en 1985, actuando en un principio como sala de los profesores de la asignatura. En 1989 se inició la Licenciatura de Ciencia Política y recién a partir de ese año se establecieron los primeros cargos de investigación. El establecimiento de la Licenciatura y de los cargos de investigación, el impulso de las publicaciones y de los eventos públicos ha permitido seguir avanzando en el sentido antes mencionado en las últimas décadas.
El Instituto es un organismo estatal y constituye un departamento de la Facultad de Ciencias Sociales de la Universidad de la República (Montevideo, Uruguay). La fundación de la Facultad de Ciencias Sociales en 1991, que el Instituto pasa a integrar desde el origen, proporciona un ámbito especializado, otras coordenadas académicas y una nueva sede física tras una apuesta de integración disciplinaria y de perfeccionamiento docente, en el marco de un proyecto empeñoso de la Universidad de la República, que implica un mayor compromiso y mayores perspectivas.
Estas acciones fomentan el desarrollo de la Ciencia Política en el Uruguay, acompañando la evolución que se registra en los Estados Unidos, en Europa y en América Latina, enlazándose con la obra de algunas figuras de relieve – como Carlos Real de Azúa y Aldo Solari – con los esfuerzos universitarios precedentes y con la labor que realizan otros centros.
La empresa reune a un núcleo calificado de docentes – varios de los cuales adquirieron formación de posgrado en el exterior – y queda asociada a la transformación histórica que estamos viviendo. La labor del Instituto pretende responder a los requerimientos actuales de la cultura y de la educación superior e insiste en la acumulación y en la circulación del conocimiento especializado. Afirma la profesionalidad politológica, delineando una gama de destrezas a tono con los procesos de reforma del Estado y con las nuevas necesidades de la gestión pública. Atiende a un objetivo de promoción democrática, alimentando la información disponible y las elaboraciones de opinión pública, apoyando los ejercicios de ciudadanía, aportando elementos para encaminar los problemas políticos y para ajustar el régimen de gobierno.

Encargado de Dirección: Dr. Nicolás Bentancur (julio 2014 – julio 2015)
Contacto: direccion.dcp@cienciassociales.edu.uy
Comisión de Gestión Académica: Dr. Nicolás Bentancur, Dr. Daniel Buquet, Dr. Adolfo Garcé, Dra. María Ester Mancebo, Dra. Carmen Midaglia.

INTELIGENCIA ARTIFICIAL

INTELIGENCIA ARTIFICIAL

Él termino "inteligencia artificial" fue acuñado formalmente en 1956 durante la conferencia de Darthmounth, más para entonces ya se había estado trabajando en ello durante cinco años en los cuales se había propuesto muchas definiciones distintas que en ningún caso habían logrado ser aceptadas totalmente por la comunidad investigadora. La AI es una de las disciplinas más nuevas que junto con la genética moderna es el campo en que la mayoría de los científicos " más les gustaría trabajar".
Una de las grandes razones por la cuales se realiza el estudio de la IA es él poder aprender más acerca de nosotros mismos y a diferencia de la psicología y de la filosofía que también centran su estudio de la inteligencia, IA y sus esfuerzos por comprender este fenómeno están encaminados tanto a la construcción de entidades de inteligentes como su comprensión.
El estudio de la inteligencia es una de las disciplinas más antiguas, por más de 2000 años los filósofos no han escatimado esfuerzos por comprender como se ve, recuerda y razona junto con la forma en que estas actividades deberían realizarse. Según John Mc Carthy la inteligencia es la "capacidad que tiene el ser humano de adaptarse eficazmente al cambio de circunstancias mediante el uso de información sobre esos cambios", pero esta definición resulta muy amplia ya que de acuerdo con esta, el sistema inmunológico del cuerpo humanó resultaría inteligente ya que también mediante el uso de información este logra adaptarse al cambio. Otra interesante manera de ilustrar la inteligencia seria recurrir a la teoría societal de la mente de Marvin Minsky donde cada mente humana es el resultado del accionar de un comité de mentes de menor poder que conversan entre sí y combinan sus respectivas habilidades con el fin de resolver problemas.
La llegada de las computadoras a principios de los 50, permitió el abordaje sin especulación de estas facultades mentales mediante una autentica disciplina teórica experimental. Es a partir de esto que se encontró que la IA constituye algo mucho más complejo de lo que se pudo llegar a imaginar en principio ya que las ideas modernas que constituyen esta disciplina se caracterizan por su gran riqueza, sutileza e interés; en la actualidad la IA abarca una enorme cantidad de subcampos que van desde áreas de propósito general hasta tareas especificas.
Una de las definiciones que se han dado para describir la IA la sitúa dentro de una disciplina que tiene que ver con las ciencias de la computación que corresponden al esfuerzo por parte de gran cantidad de científicos que durante los últimos treinta años han realizado con el fin de dotar a las computadoras de inteligencia, a partir de esta definición encontramos que una de las técnicas de IA es aquella que se utiliza con el fin de lograr que un determinado programa se comporte de forma inteligente sin pretender tener en cuenta la " forma de razonamiento "empleada para lograr ese comportamiento.
Luego, aquí surge un dilema, ya que según esto cualquier problema resoluble por un computador, sin complicaciones y también como un ser humano podría encuadrarse en el campo de la inteligencia artificial acudiendo solamente a la aplicación de reglas consecutivas al pie de la letra o lo que encontramos con el nombre de Algoritmos dentro del lenguaje de IA; este termino fue acuñado en honor al matemático árabe AL-KWARIZMI que copiló una serie de estos para ser aplicados a diferentes problemas algebraicos.
Cuando se aplican algoritmos a la solución de los problemas aunque no se está actuando inteligentemente si esta siendo eficaz pero los problemas realmente complicados a los que se enfrenta el ser humano son aquellos en los cuales no existe algoritmo conocido así que surgen de reglas que tratan de orientarnos hacia las soluciones llamadas Heurísticas en las cuales nunca nada nos garantiza que la aplicación de una de estas reglas nos acerque a la solución como ocurre con los anteriores.
A partir de estos datos; Farid Fleifel Tapia describe a la IA como: "la rama de la ciencia de la computación que estudia la resolución de problemas no algorítmicos mediante el uso de cualquier técnica de computación disponible, sin tener en cuenta la forma de razonamiento subyacente a los métodos que se apliquen para lograr esa resolución.
Para completar esa definición, algunas definiciones no tan formales emitidas por diferentes investigadores de la IA que consideran otros puntos de vista son:
  • La IA es el arte de crear maquinas con capacidad de realizar funciones que realizadas por personas requieren de inteligencia. ( Kurzweil, 1990)
  • La IA es el estudio de cómo lograr que las computadoras realicen tareas que, por el momento, los humanos hacen mejor. (Rich, Knight, 1991).
  • La IA es la rama de la ciencia de la computación que se ocupa de la automatización de la conducta inteligente. (Lugar y Stubblefied, 1993).
  • La IA es el campo de estudio que se enfoca a la explicación y emulación de la conducta inteligente en función de procesos computacionales. (Schalkoff, 1990).
En la IA se puede observar dos enfoques diferentes:
  1. La IA concebida como el intento por desarrollar una tecnología capaz de proveer al ordenador capacidades de razonamiento similares a los de la inteligencia humana.
  2. La IA en su concepción como investigación relativa a los mecanismos de la inteligencia humana que se emplean en la simulación de validación de teorías.
El primer enfoque se centra en la utilidad y no en el método como veíamos anteriormente con los algoritmos, los temas claves de este enfoque son la representación y gestión de conocimiento, sus autores más representativos son McCrrthy y Minsky.
John McCarthy
En el segundo enfoque encontramos que este se orienta a la creación de un sistema artificial capaz de realizar procesos cognitivos humanos haciendo importante ya no la utilidad como el método, los aspectos fundamentales de este enfoque se refieren al aprendizaje y adaptabiliada y sus autores son Newell y Simon de la Carnegie Mellon University.
La IA al tratar de construir maquinas que se comporten aparentemente como seres humanos han dado lugar al surgimiento de dos bloques enfrentados: el enfoque simbólico o top-down, conocido como la IA clásica y el enfoque subsimbolico llamado a veces conexionista.
Los simbólicos simulan directamente las características inteligentes que se pretenden conseguir o imitar y lo mejor que también se tiene a la mano es el hombre; para los constructores de los sistemas expertos resulta fundamental la representación del conocimiento humano donde gracias a estos avances se han encontrado dos tipos de conocimiento: conocimiento acerca del problema particular¨ y ¨conocimiento a cerca de cómo obtener mas conocimiento a partir del que ya tenemos¨. El ejemplo más representativo de esta corriente es el proyecto de Cyc de Douglas B. Lenat sobre un sistema que posee en su memoria millones de hechos interconectados.
Dentro de la otra corriente: la subsimbolica; sus esfuerzos se orientan a la simulación de los elementos de mas bajo nivel dentro de los procesos inteligentes con la esperanza de que estos al combinarse permitan que espontáneamente surja el comportamiento inteligente. Los ejemplos mas claros que trabajan con este tipo de orientación son las redes neuronales y los algoritmos genéticos donde estos sistemas trabajan bajo la autonomía, el aprendizaje y la adaptación, conceptos fuertemente relacionados.
Uno de los grandes seguidores de la IA; Marvin Minsky, ha dado una clasificación para los lenguajes de programación que se utilizan en esta disciplina:
Marvin Minsky
  • ¨Haga ahora¨: Donde el programador surte de instrucciones a la maquina para realizar una tarea determinada donde todo queda especificado excepto quizás él numero de repeticiones.
  • ¨Haga siempre que¨: Aquí se permite escribir un programa que le sirva a la computadora para resolver aquello problemas que el programador no sabe resolver pero conoce que tipo de soluciones se pueden intentar.
  • "De constreñimiento": se escriben programas que definen estructuras y estados que se condicionan y limitan recíprocamente.
Pero Minsky, admite que aún será necesario desarrollar dos tipos de lenguajes más para obtener una IA comparable a la inteligencia humana; y estos podrían ser.
  • "Haga algo que tenga sentido¨: Donde se permite al programa aprender del pasado y en una nueva situación aplicar sus enseñanzas.
  • "Mejórense a sí mismo": Allí se podrá permitir escribir programas que tengan en adelante la capacidad de escribir programas mejores que ellos mismos.
Otro punto desde luego tiene que ver con el tema que aquí estamos tratando es por supuesto el concepto de lo que es creatividad, que a simple vista es algo que no podemos explicar porque es resultado de un don especial pero que los estudios sobre IA han comenzado hacer posible dar explicación satisfactoria: nos dicen que en la medida que se logre escribir programas que exhiban propiedad, en esa misma medida se empezara a explicar la creatividad.
Otra propiedad que se espera ver asociada a la IA es la autoconciencia; que de acuerdo con los resultados de las investigaciones psicológicas hablan por una parte de que como es bien sabido, el pensamiento humano realiza gran cantidad de funciones que no se pueden calificar de conscientes y que por lo tanto la autoconciencia contribuye en cierto sentido a impedir el proceso mental eficiente; pero por otro lado es de gran importancia poder tener conocimiento sobre nuestras propias capacidades y limitaciones siendo esto de gran ayuda para el funcionamiento de la inteligencia tanto de la maquina como del ser humano.
Pero seria imposible tratar de contemplar el tema de la IA sin recurrir a la cuestión de la complejidad; donde el comportamiento inteligente es el resultado de la interacción de muchos elementos y que con seguridad es una de las más valiosas contribuciones al tratar de simular en la maquina los fenómenos intelectuales humanos.
La IA se ha desarrollado como disciplina a partir de la concepción de la inteligencia que se realizo al interior de la psicología y a partir de la cual se elaboraron diferentes categorías.

ARTE, CIENCIA Y TECNOLOGIA

ARTE, CIENCIA Y TECNOLOGIA

La ciencia y la tecnología siempre han evolucionado en forma conjunta. El desarrollo de una conlleva o potencia el desarrollo de la otra. Es por ello que siempre las hallamos juntas, en una suerte de evolución constante entre sinérgica y simbiótica.
La instinto de supervivencia nos ha llevado como animales que somos a obedecer primero nuestra parte instintiva y luego a actuar como seres racionales.
La técnica o habilidad adquirida responde a esta parte instintiva. Por ensayo y error vamos desarrollando habilidades y aprendiendo a partir de esa relación causa-efecto.
La ciencia es más reflexiva. Cuando ya, a partir de la observación, generamos hipótesis, teorizamos y realizamos comprobaciones, estamos comportándonos científicamente. De la aplicación práctica de estos conocimientos científicos surge la tecnología.
Arte, ciencia y tecnología, ayer…
En algunas de nuestras culturas ancestrales, existía un sólo vocablo para expresar los conceptos de tecnología, ciencia o arte. En nuestra lengua arte proviene del latín “ars” y técnica del griego “tekne”; palabras que se refieren a la habilidad para realizar alguna tarea u objetivo. De hecho, la cultura es un todo, donde el arte se mezcla con la ciencia y la tecnología. A lo largo de historia, el hombre ha utilizado todas las herramientas disponibles para la creación de sus obras artísticas. Desde las eras más primitivas ha desarrollado tintas y pinturas con un grado de sofisticación que aun hoy asombra. Se ha expresado y ha dejado su legado sobre piedra usando técnicas aerográficas similares a las que se utilizan hoy en día.
Aquello que denominamos “arte”, y que en épocas remotas se encontraba más ligado a la religión o la magia que a lo puramente artístico, se ha desarrollado a medida que el hombre fue dominando y manejando diferentes materiales, tales como la madera, la piedra o el metal. Asimismo, a medida que la ciencia fue evolucionando, el arte utilizó recursos como la física y la astronomía. De esta manera, con el tiempo, se fue desarrollando el automatismo y la cibernética, siendo algunos de los predecesores de los robots verdaderas expresiones artísticas.
El arte ha estado siempre asociado a la técnica y a la tecnología. Acudiendo a la historia del arte, es cierto que hacia principios de los años sesenta del siglo XX, la desmaterialización del arte nos enfrenta con un tipo de práctica artística desprovista de toda herramienta tecnológica: el arte conceptual. Puramente reflexivo, pone el acento en la “idea” o “concepto”, sin necesidad de una expresión material concreta. Sin embargo, inclusive el arte conceptual, hace uso de la tecnología (la fotografía, por ejemplo) para registrar sus acciones y performances, siendo ésta, en muchas oportunidades, la única fuente de documentación que nos permite acceder a la “obra” e, incluso, su único soporte.
Las serpientes de Chichén. Itzá
Numerosos son los ejemplos a través de la historia donde se conjugan el arte, la ciencia y la tecnología. El que presentamos aquí corresponde a la pirámide de Kukulcán en Chichén-Itza, ciudad Maya, al norte de la península de Yucatán en México.

Los mayas reunieron avanzados conocimientos de astronomía y refinadas tecnologías de construcción para producir el magnifico evento solar en el que una serpiente parece descender de la pirámide. Parte de la construcción, se ilumina en forma determinada en un momento específico de la conjunción del Sol con la Tierra. Durante los equinoccios, el sol se proyecta en las escalinatas y forma, sobre los laterales, la figura de una serpiente, en un asombroso juego de luces y sombras que genera la sensación óptica de movimiento descendente de la serpiente.
Arte, ciencia y tecnología, hoy …
Siempre hubo y habrá una nueva tecnología útil para el arte, ya sea un nuevo soporte, o una nueva interfase, tanto para el artista como para el espectador. Incluso, algunas de las  categorías artísticas más difundidas actualmente, como el net.art; el video-arte; etc., han surgido como consecuencia de la aparición de una nueva tecnología. La revolución informática fue -y sigue siendo- la que acarreó grandes cambios y multiplicó las modalidades en los formatos artísticos de los últimos años. Hoy, apenas saliendo de la era del video como nueva tecnología, la informática ha brindado un sinnúmero de nuevas herramientas y posibilidades a los artistas visuales y sonoros. Sin embargo, es indudable que estamos viviendo los albores de una nueva revolución: la genética. Esta, sin olvidar su inherente dimensión ética, nos ofrece la posibilidad de esculpir la propia naturaleza orgánica, creando obras “vivientes”, modeladas según nuestro propio deseo.
Todo lo expresado usa la tecnología como medio, como herramienta. No obstante, en algunas ocasiones es la propia tecnología la que se convierte en objeto artístico. Sucede que la aparición de un nuevo medio suele ser tan relevante que el sólo hecho de mostrarlo implica el impacto de lo inédito, creyendo que así funciona como obra. Este fenómeno nos impele a re-preguntarnos por el hecho artístico en así, ya que esta etapa inaugural o de “descubrimiento” de un nuevo medio debe conllevar una carga de sentido y poeticidad para que exista una “obra de arte”, que luego puede (o no) adquirir relevancia y trascendencia.
En muchas oportunidades, la práctica artística requiere del desarrollo e investigación científica para poder plasmar cierto tipo de obras, que -sin este apoyo- permanecerían sólo en la imaginación y fantasía de los artistas. Esos desarrollos pueden o no tener aplicaciones prácticas concretas y convertirse en una tecnología pasible de ser utilizada en forma más amplia. La ciencia en estos casos se ve beneficiada por la creatividad del arte, abriéndose nuevos caminos tal vez menos evidentes pero llevando la imaginación un paso más adelante.
Resulta imposible enumerar todas las alternativas y variaciones de las diversas expresiones artísticas relacionadas con la ciencia y la tecnología. Incluso, una clasificación taxativa daría como resultado un cuerpo de información imperfecto y que entorpecería la inherente deslimitación en la que éstas prácticas se desarrollan. Por este motivo, a continuación, daremos sólo algunos ejemplos y comentaremos algunas obras.
La investigación y el arte
Analizaremos un proyecto que propone, desde su origen, un trabajo conjunto entre el desarrollo científico y el arte. El proyecto I-Wear (Ropa Interactiva) tiene un doble objetivo, por un lado la investigación y por otro lado un objetivo artístico.
Navegando en la difusa interfase entre la realidad y la ficción, Ropa Interactiva, propone encarar la investigación tecnológica sobre textiles, mecanismos y prendas desde una perspectiva artístico-creativa. Se utiliza el arte como marco para extralimitar las funciones que la tecnología y el diseño adquieren en la actualidad.  
La preocupación recae en el plano de lo significativo. Las prendas diseñadas configuran una proposición del tipo discursiva, invitan a una reflexión.   
Wear1 Razón y Palabra

Wear2 Razón y Palabra
Biología y arte
La naturaleza ha sido objeto de innumerables expresiones artísticas, pero en general, ha sido tomada como modelo, como “naturaleza muerta” plasmada en una escultura o lienzo. Hoy, la “naturaleza viva” puede ser parte de la obra misma, puede interaccionar con el medio, estar sujeta a conceptos científicos y hasta puede ser modelada por el público. Las producciones artísticas pueden estar basadas en elementos orgánicos que pueden involucrarse en la obra de diferentes modos. Pueden ser complementos tan solo estéticos, formar parte de un mensaje o bien ser parte de la obra como elemento fundamental constitutivo de la misma.
El Proyecto Biosfera es una obra de contenido ambiental. La misión del proyecto es alertar sobre la fragilidad del planeta. La obra esta formada por un ecosistema natural herméticamente sellado en una esfera transparente y esta basada en el concepto de que el mundo esta en nuestras manos. Algunas biosferas se constituyen en esculturas vivientes expuestas en espacios públicos, y otras mas pequeñas se entregan a formadores de opinión para transmitir el concepto de que el mundo esta, verdaderamente, en sus manos. En otros casos, son objeto de estudios científicos sobre la evolución de las especies en su interior y del ecosistema en general.
biosfera Razón y Palabra
biósfera 2 Razón y Palabra
biósfera 3
biósfera 4 Razón y Palabra
Arte y Clima
Es de público conocimiento que estamos ante eventos globales que nos impelen a la toma de acción inmediata. El arte puede operar como medio de cuestionamiento, de expresión política, como herramienta para la toma de conciencia respecto a los derechos de los seres humanos… A lo largo de su historia, ha tenido, en muchos casos, un objetivo, un fin que trasciende el mero hecho estético.
Hoy mas que nunca, todos los ámbitos son útiles y necesarios para expresar al mundo la gravedad y urgencia de lo que esta sucediendo.
Sunflower - Centinela del Cambio Climático

Es una instalación en la que la ciencia y la tecnología se combinan para proponer un mensaje ambiental y social a través del arte. Posee una instancia material, la escultura en sí, y una virtual, que es un sitio de Internet. Ambas vinculadas de modo complementario Sunflower es una flor solar robotizada que funciona a modo de una estación meteorológica, midiendo variables ambientales y oficiando de testigo ocular a través de sus cámaras. El proyecto Sunflower busca crear una conexión entre los pueblos, el arte y la tecnología, al servicio del medio ambiente.
Sunflower1 Razón y Palabra
Foto Sunflower 1 Armado Sunflower en Ushuaia, Argentina
Sunflower2 Razón y Palabra
Foto Sunflower 2 Sunflower en Ushuaia, Argentina
Bioarte
Esta nueva rama del arte puede ser muy amplia, no obstante las voces más ortodoxas consideran que bioarte es aquella práctica artística que se vincula con el cultivo tisular, o sea, con el cultivo de tejidos orgánicos y con la biotecnología. En un sentido más amplio, podríamos también incluir cultivos in Vitro,  
Dentro de la categoría de Bioarte, citaremos algunos ejemplos:
* Proyecto Inmortalidad
Es una instalación que consta de un cyborg formado por la combinación de células de corazón vivas, un sistema robótico y sistemas multimediales. Este conjunto orgánico se convierte metafóricamente en un corazón que tiene como objetivo permanecer latiendo indefinidamente.
Una de las grandes inquietudes del hombre ha sido perpetuarse a lo largo del tiempo. Mas allá del espíritu trascendental que nos lleva a pensar en perdurar a lo largo de nuestra propia vida, se ha especulado en la posibilidad de que un ser, un organismo en sí mismo, pueda permanecer vivo, por siempre.
Inmortalidad Razón y Palabra
Inmortalidad 2 Razón y Palabra
* Arte Multidisciplinario
La complejidad de algunas obras científico-tecnológicas demanda un trabajo en equipo. Durante el Renacimiento aún se podía soñar con el conocimiento universal pero hoy en día es inimaginable pensar en la suma total del saber. Una instalación artística de bioarte como Inmortalidad, requiere de la intervención de la biotecnología, la bioquímica, la robótica, la informática
 y la comunicación. A estas disciplinas científico-tecnológicas se suman las dimensiones estéticas y conceptuales. Todo este proceso hace que los desarrollos sean de una complejidad tal que, prácticamente, es imposible realizarlos en forma unipersonal.
* El arte como motor de la ciencia
El arte no sólo utiliza tecnologías existentes como herramienta de expresión sino que también puede ser el impulsor del desarrollo de nuevas tecnologías y descubrimientos científicos. El arte permite soñar sin ataduras y plantear propuestas que aun no son plausibles de realización.  
Foto Bioarte 1 Cultivo de Miocardiocitos (Células de corazón)
Bio-Wear
Así como la evolución limitó al hombre en su capacidad de vestirse naturalmente, Bio-Wear tiene como objetivo desarrollar algún tipo de prenda a partir de las propias células humanas. Hoy este concepto forma parte de la ciencia ficción pero el sector científico esta siendo consultado para plantear una posible senda de investigación para adaptar tecnologías actuales o desarrollar nuevas en función de estas ideas.

COMO REDACTAR UN INFORME

COMO REDACTAR UN INFORME

Un informe es un escrito que tiene como fin el de comunicar y dar cuenta de una situación desde diferentes perspectivas, es decir, de algo sobre lo que se está realizando una investigación exhaustiva. Un informe puede ser solicitado en cualquier ámbito, ya sea en el laboral, el estudiantil, el universitario, el comercial, etc., pero para elaborarlos de manera adecuada es fundamental tener en cuenta algunos pasos.
Instrucciones

  1. Un informe debe ser elaborado con un lenguaje claro, preciso, concreto y objetivo. Se debe evitar incluir apreciaciones personales haciendo uso de formas verbales como: creo, pienso, me gustaría, deseo, etc., las cuales deben ser sustituidas por otras como: se observa, se ha analizado, se procedió, etc.
  2. Hay diferentes tipos de informes, y estos pueden ser expositivos, interpretativos o demostrativos.
    • El informe expositivo es una secuencia de hechos narrada sin análisis e interpretaciones del autor, debe contener antecedentes que ayuden a comprender lo que se narra, por ejemplo la venta de productos en tiendas comerciales.
    • El informe interpretativo analiza las situaciones para sacar conclusiones y poder dar las recomendaciones oportunas., por ejemplo realizar la evaluación sobre prácticas pedagógicas.
    • El informe demostrativo es el que se plantea después de un estudio, se describen los pasos seguidos, las conclusiones obtenidas, también recibe el nombre de científico o técnico.
  3. Concretamente, la realización de un informe debe contar con las siguientes fases: fijar el objetivo, seleccionar la información, analizar esta última, evaluar y verificar, estructurar el informe, y proceder a trabajar en el mismo.
  4. Para fijar el objetivo, hazte estas preguntas: ¿Para quién es el informe?, ¿Cuál es el uso que le va a dar?, ¿Qué es lo que se quiere conocer?, ¿Qué conocimientos tiene del tema?
  5. Define la fase preliminar de las actividades que vas a realizar para lograr los criterios de evaluación propuestos. Determina las fuentes de la información, los recursos humanos y los recursos materiales para extraer los datos. Una vez extraídos, analiza toda la información seleccionada, organízala y empieza a hacer comparaciones.
  6. Evalúa los datos y procede a verificar los mismos, consolida la información, organiza y elabora el informe escrito.
  7. La estructura del informe se divide en tres partes:
    • La introducción responde a las preguntas: ¿para qué? ¿por qué? y ¿con qué?
    • El desarrollo presenta los procedimientos o metodología utilizada para recopilar la información, responde a la pregunta ¿cómo?
    • La conclusión es donde se presentan los resultados obtenidos, responde a la pregunta ¿qué se encontró? y ¿qué debe hacerse?
  8. Como recomendaciones generales para aplicar a tu informe, te damos las siguientes: el informe debe ser objetivo, no se acepta la subjetividad, menciona todos los datos posibles, sé organizado, describe con detalle cada paso seguido, cita las fuentes de información que has consultado, escribe párrafos cortos, claros, precisos y concretos, expón de forma precisa, y presenta tu informe.
    Cómo redactar correctamente un informe

LAS 15 MOTOCICLETAS MAS CARAS DEL MUNDO

Las 15 Motocicletas MÁS CARAS del Mundo 2013

Las 15 Motocicletas Más Caras del Mundo 2013Las motocicletas han tenido una gran aceptación del público en general para casi más de un siglo. Un americano llamado Sylvester Howard Roper diseñó una de las primeras motocicletas en la década de 1860. La motocicleta fue exhibida en ferias y circos por todo el este de los EE.UU.. Los europeos también tuvieron su parte en la popularización de las motocicletas y, durante las guerras mundiales, utilizaron las motocicletas como un medio rápido de transporte.
A medida del progesos del motociclismo en el mundo, sus motores y sus marcos se hicieron más grandes y más elegantes; también se hicieron más rápidas y más potentes, lo que resultó en estas súper motocicletas con la más alta tecnología y exuberantes precios de hoy. Si puedes pagarlo, una moto hecha a la medida con tus exactas especificaciones, de seguro estará a vuestro alcance. Aquí estan las 15 motocicletas más caras del mundo en el 2013:
#15. VYRUS 987 C3 4V V –  $103,769 [€78,000]
VYRUS 987 C3 4V V
Esta es una creación de Ascanio Rodorigo que solía trabajar para Bimota en los años 80. La moto está propulsado por un motor Ducati V-twin de 1198cc.

#14. MV AGUSTA F4CC – $120,000 [€90,000]
MV AGUSTA F4CC
La Agusta F4CC cuenta un motor de 1078cc lo suficientemente competentes para producir 203PS de potencia y permitir a esta moto alcanzar una velocidad máxima de 315 km/h (196 mph).

#13. YAMAHA ROADSTAR BMS CHOPPER – $128,800 [€96,500]
YAMAHA ROADSTAR BMS CHOPPER
Está Yamaha cuenta un motor OHV 48 twin de 102 pulgadas cúbicas, enfriado por aire con gran cantidades de torque y es fantástica en rendimiento general.

#12. NCR MH TT – $130,000 [€97,500]
NCR MH TT
La MH TT es una réplica moderna de la Ducati 900 NCR.  Es súper ligeras pesa tan sólo 136kg graias a materiales de titanio y fibra de carbono utilizados en su fabricación. Tiene un motor de 1120cc con un marco de titanio que pesa sólo 5kg.

#11. CONFEDERATE B120 WRAITH – $135,000 [€101,000]
CONFEDERATE B120 WRAITH
Ni siquiera se parece remotamente a ninguna motocicleta estándar ahora mismo en las calles y una de las más caras motos en producción en el mundo. Cuenta con dettales como: chasis inspirado de aviones, marco de fibra de carbono, enorme tenedor hecho a mano y ruedas de siete radios.

#10. CONFEDERATE R135 WRAITH COMBAT – $140,800 [€105,500]
CONFEDERATE R135 WRAITH COMBAT
Con creación futuristas y poca información acerca, la increíble moto está limitada a sólo 7 unidades en total para todo el mundo.

#9. NCR LEGGERA 1200 TITANIUM SPECIAL – $145,000 [€109,000]
NCR LEGGERA 1200 TITANIUM SPECIAL
Con modificaciones en su motor que incluyen: válvulas de titanio, tapa de motor de magnesio y cilindros más grandes, lo caul han dado lugar a una potencia total de 140 caballos de fuerza.

#8. MTT TURBINE SUPERBIKE – $155,000 [€116,250]
MTT TURBINE SUPERBIKE
Impulsada por un mega poderoso motor de turbina de gas “Rolls Royce Allison”, la MTT SUPERBIKE entrega más de 300 caballos de fuerza, 425 par de torque y ha registrado velocidad récord de  370 km/h (227 mph).

#7. ICON SHEENE 1400CC – $212,000 [€159,000]
ICON SHEENE 1400CC
La ICON SHEENE es una de las más potente moto en producción del mundo, cuenta con motor turbo Suzuki 1400cc de 4 cilindros, el cual entrega de más de 250 caballos de fuerza.

#6. NCR MACCHIA NERA – $225,000 [€169,000]
NCR MACCHIA NERA
La Macchia Nera o en italiano el “punto negro” es la última expresión del diseñador Aldo Drudi en está motocicleta moldeada con fibra de carbono y titanio.

#5. NCR M16 – $232,500 [€174,000]
NCR M16
Cuenta con marco de fibra de carbono, basculante y frenos de material compuesto de matriz cerámica y un calibración especial (Ohlins) para darle más poder en la pista.

#4. ECOSSE HERETIC TITANIUM – $282,000 [€211,500]
ECOSSE HERETIC TITANIUM
Tiene un motor sobrealimentado de 2150cc, combustible inyectado e intercooler, al tiempo que genera 200 caballos de fuerza.

#3. ECOSSE TITANIUM SERIES FE TI XX – $307,000 [€230,500]
ECOSSE TITANIUM SERIES FE TI XX
Está impulsada por un motor de aluminio de 2.4 litros cual produce 225 caballos de fuerza.

#2. DODGE TOMAHAWK V10 – $550,000 [€420,000]
DODGE TOMAHAWK V10
Con increíble diseño Art Deco fue fabricada en las intalaciones de Chrysler por el diseñador Mark Walters. Cuenta con un motor V10 SRT10 del Dodge Viper de 500 caballos de fuerza, 8.3 litros (510 pulgadas cúbicas).

#1. ECOSSE SPIRIT ES1 – $3,690,000 [€2,765,000]
ECOSSE SPIRIT ES1
Está motocicleta es totalmente diferente a cualquier otra moto en el mercado. Su velocidad proviene de su diseño aerodinámico y ultra ligero, además su potente motor. Pesa alrededor de 265 libras, y se puede ir a unas 370 km/h (230 mph).