viernes, 6 de febrero de 2015

Evaluación SEGUNDO QUIMESTRE

Arquitectura de computadoras




La arquitectura de computadoras es el diseño conceptual y la estructura operacional fundamental de un sistema de computadora. Es decir, es un modelo y una descripción funcional de los requerimientos y las implementaciones de diseño para varias partes de una computadora, con especial interés en la forma en que la unidad central del PC (cpu) trabaja internamente y accede a las direcciones de memoria.

También suele definirse como la forma de seleccionar e interconectar componentes de hardware para crear computadoras según los requerimientos de funcionalidad, rendimiento y costo.

El ordenador recibe y envía la información a través de los periféricos por medio de los canales. La UCP es la encargada de procesar la información que le llega al ordenador. El intercambio de información se tiene que hacer con los periféricos y la UCP. Todas aquellas unidades de un sistema exceptuando la UCP se denomina periférico, por lo que el ordenador tiene dos partes bien diferenciadas, que son: la UCP (encargada de ejecutar programas y que está compuesta por la memoria principal, la Unidad aritmético lógica (UAL) y la Unidad de Control) y los periféricos (que pueden ser de entrada, salida, entrada-salida y comunicaciones). 

Introducción

La implantación de instrucciones es similar al uso de una serie de desmontaje en una fábrica de manufacturación. En las cadenas de montaje, el producto pasa a través de muchas etapas de producción antes de tener el producto desarmado. Cada etapa o segmento de la cadena está especializada en un área específica de la línea de producción y lleva a cabo siempre la misma actividad. Esta tecnología es aplicada en el diseño de procesadores eficientes.


A estos procesadores se les conoce como pipeline processors. Estos están compuestos por una lista de segmentos lineales y secuenciales en donde cada segmento lleva a cabo una tarea o un grupo de tareas computacionales. Los datos que provienen del exterior se introducen en el sistema para ser procesados. La computadora realiza operaciones con los datos que tiene almacenados en memoria, produce nuevos datos o información para uso externo.

Almacenamiento de operandos en la UPC

La diferencia básica está en el almacenamiento interno de la UPC.
Las principales alternativas son:
  • Acumulador.
  • Conjunto de registros.
  • Memoria
Características: En una arquitectura de acumulador un operando está implícitamente en el acumulador siempre leyendo e ingresando datos. (Ej.: calculadora Standard -estándar-)
En la arquitectura de pila no es necesario nombrar a los operandos ya que estos se encuentran en el tope de la pila. (Ej.: calculadora de pila HP)
La Arquitectura de registros tiene sólo operandos explícitos (es aquel que se nombra) en registros o memoria.


Ventajas de las arquitecturas

  • Pila: Modelo sencillo para evaluación de expresiones (notación polaca inversa). Instrucciones cortas pueden dar una buena densidad de código.
  • Acumulador: Instrucciones cortas. Minimiza estados internos de la máquina (unidad de control sencilla).
  • Registro: Modelo más general para el código de instrucciones parecidas. Automatiza generación de código y la reutilización de operandos. Reduce el tráfico a memoria. Una computadora actualmente tiene como estándar 32 registros. El acceso a los datos es más rápido, y veloz.

Desventajas de las arquitecturas

  • Pila: A una pila no se puede acceder aleatoriamente. Esta limitación hace difícil generar código eficiente. También dificulta una implementación eficiente, ya que la pila llega a ser un cuello de botella es decir que existe dificultad para la transferencia de datos en su velocidad mk.
  • Acumulador: Como el acumulador es solamente almacenamiento temporal, el tráfico de memoria es el más alto en esta aproximación.
  • Registro: Todos los operadores deben ser nombrados, conduciendo a instrucciones más largas.




jueves, 18 de septiembre de 2014

Evaluación Primer Quimestre

LA POBREZA


¿ QUE ES LA POBREZA?


La pobreza  es la privación de comida, ropa, alojamiento y agua potable, osea aquellos elementos físicos y de infraestructura que determinan la calidad de vida de un individuo o grupo, y también se incluyen  aspectos como el acceso a la educación, el trabajo, y el respeto del resto de la comunidad.


TIPOS DE POBREZA

POBREZA ABSOLUTA: Es aquella que establece la linea que divide a los pobres de los no pobres, por medio de una canasta mínima de consumo representativa de las necesidades de la sociedad que se pretende analizar.

POBREZA RELATIVA: Es aquella que es relativa de las ciudades, campos, países, situaciones geográficas, etc.


CAUSAS DE LA POBREZA


* Crecimiento poblacional
* Desastres naturales
* Conflictos políticos 
* Ignorancia
* Corrupción

ESTADÍSTICAS 


El 55.8% de las personas del área rural del país viven en condiciones de pobreza y el 29.1%  de ellas viven en pobreza extrema.

POSIBLES SOLUCIONES


* Acabar con la desigualdad 
* Garantizar más la educación


CONSECUENCIAS   DE LA POBREZA

* Migración
* La desintegración familiar
* La desnutrición
* La delincuencia 
* Trabajo infantil 


















jueves, 26 de junio de 2014

COMPUTACIÓN EN LA NUBE


UNIDAD EDUCATIVKASAMA


MATERIA: INFORMÁTICA APLICADA
NOMBRE: EDUARDO ALARCÓN
CURSO: 3RO B.G.U. "C"
LIC. STALIN ANZULES
FECHA: 26 DE JUNIO DEL 2014
TEMA:  COMPUTACIÓN EN LA NUBE


La computación en la nube concepto conocido también bajo los términos servicios en la nubeinformática en la nubenube de cómputo o nube de conceptos, del inglés cloud computing, es un paradigma que permite ofrecer servicios de computación a través de internet.

 INTRODUCCIÓN



En este tipo de computación todo lo que puede ofrecer un sistema informático se ofrece como servicio ,de modo que los usuarios puedan acceder a los servicios disponibles "en la nube de Internet" sin conocimientos (o, al menos sin ser expertos) en la gestión de los recursos que usan. Según el IEEE Computer Society, es un paradigma en el que la información se almacena de manera permanente en servidores de Internet y se envía a cachés temporales de cliente, lo que incluye equipos de escritorio, centros de ocio, portátiles, etc.
La computación en la nube son servidores desde Internet encargados de atender las peticiones en cualquier momento. Se puede tener acceso a su información o servicio, mediante una conexión a internet desde cualquier dispositivo móvil o fijo ubicado en cualquier lugar. Sirven a sus usuarios desde varios proveedores de alojamiento repartidos frecuentemente por todo el mundo. Esta medida reduce los costes, garantiza un mejor tiempo de actividad y que los sitios web sean invulnerables a los hackers, a los gobiernos locales y a sus redadas policiales.



DESARROLLO DEL TEMA


El concepto fundamental de la entrega de los recursos informáticos a través de una red global tiene sus raíces en los años sesenta. La idea de una "red de computadoras intergaláctico" fue introducido en los años sesenta por JCR Licklider, quien era responsable de permitir el desarrollo de ARPANET (Advanced Research Projects Agency Network) en 1969. Su visión era que todo el mundo pudiese estar interconectado y poder acceder a los programas y datos desde cualquier lugar, explicó Margaret Lewis, directora de marketing de producto de AMD. "Es una visión que se parece mucho a lo que llamamos cloud computing".
Otros expertos atribuyen el concepto científico de la computación en nube a John McCarthy, quien propuso la idea de la computación como un servicio público, de forma similar a las empresas de servicios que se remontan a los años sesenta. John McCarthy, 1960: "Algún día la computación podrá ser organizada como un servicio público".
Desde los años sesenta, la computación en nube se ha desarrollado a lo largo de una serie de líneas. La Web 2.0 es la evolución más reciente. Sin embargo, como Internet no empezó a ofrecer ancho de banda significativo hasta los años noventa, la computación en la nube ha sufrido algo así como un desarrollo tardío. Uno de los primeros hitos de la computación en nube es la llegada de Salesforce.com en 1999, que fue pionero en el concepto de la entrega de aplicaciones empresariales a través de una página web simple. La firma de servicios allanó el camino para que tanto especialistas como empresas tradicionales de software pudiesen publicar sus aplicaciones a través de Internet.
El siguiente desarrollo fue Amazon Web Services en 2002, que prevé un conjunto de servicios basados en la nube, incluyendo almacenamiento, computación e incluso la inteligencia humana a través del Amazon Mechanical Turk. Posteriormente en 2006, Amazon lanzó su Elastic Compute Cloud (EC2) como un servicio comercial que permite a las pequeñas empresas y los particulares alquilar equipos en los que se ejecuten sus propias aplicaciones informáticas. 8 "Amazon EC2/S3 fue el que ofreció primero servicios de infraestructura en la nube totalmente accesibles”, dijo Jeremy Allaire, CEO de Brightcove, que proporciona su plataforma SaaS de vídeo en línea a las estaciones de televisión de Reino Unido y periódicos. George Gilder, 2006: "El PC de escritorio está muerto. Bienvenido a la nube de Internet, donde un número enorme de instalaciones a lo largo de todo el planeta almacenarán todos los datos que usted podrá usar alguna vez en su vida".
Otro hito importante se produjo en 2009, cuando Google entre otros, empezaron a ofrecer aplicaciones basadas en navegador. Servicios, como Google Apps. "La contribución más importante a la computación en nube ha sido la aparición de "aplicaciones asesinas" de los gigantes de tecnología como Microsoft y Google. Cuando dichas compañías llevan a cabo sus servicios de una manera que resulta segura y sencilla para el consumidor, el efecto 'pasar la pelota' en sí, crea un sentimiento de mayor aceptación de los servicios online”, dijo Dan Germain, jefe de la oficina de tecnología en IT proveedor de servicios Cobweb Solutions.
Otro de los factores clave que han permitido evolucionar a la computación en la nube según el británico y pionero en computación en la nube Jamie Turner, han sido la tecnologías de virtualización, el desarrollo del universal de alta velocidad de ancho de banda, y normas universales de interoperabilidad de software. Turner añadió: "A medida que la computación en nube se extiende, su alcance va más allá de un puñado de usuarios de Google Docs. Sólo podemos empezar a imaginar su ámbito de aplicación y alcance. Casi cualquier cosa puede ser utilizado en la nube". 

LINKOGRAFÍA


http://www.clouditeration.com/es/%C2%BFqu%C3%A9-es-computaci%C3%B3n-en-la-nube 



















EL PROCESADOR

UNIDAD EDUCATIVKASAMA

MATERIA: INFORMÁTICA APLICADA

NOMBRE: EDUARDO ALARCÓN


CURSO: 3RO B.G.U. "C"

LIC. STALIN ANZULES

FECHA: 26 DE JUNIO DEL 2014

TEMA: EL PROCESADOR 






INTRODUCCIÓN

En el presente trabajo se resume las funciones y las partes del procesador del computador, la importancia es muy basta por lo que parecería exiguo el sucinto anexado, pero es lo más resumido para dar a conocer el conocimiento acerca del tema. El documento que se redacta a continuación es netamente de carácter informativo por lo que cualquier idea expresada no tiene responsabilidad ni repercusión en la persona que está realizando este trabajo. 




DESARROLLO DEL TEMA


El procesador, también conocido como CPU o micro, es el cerebro del PC. Sus funciones principales incluyen, la ejecución de las aplicaciones y la coordinación de los diferentes dispositivos que componen un equipo. No puede existir por tanto una máquina rápida que no tenga en su interior un micro potente.

Físicamente, no es más que una pequeña pastilla de silicio. Se coloca sobre la placas base en un conector que se denomina socket, aunque en un laptop o portatil lo normal es encontrarlo soldado. La placa base se convierte así en la encargada de permitir la conexión con los restantes dispositivos del equipo, como son la memoria RAM, la tarjeta gráfica o el disco duro usando para ello un conjunto de circuitos y chips denominado chipset.



El encapsulado define como el micro se conecta a la placa base. Existen tres modelos, PGA, PLA y BGA. El último caso esta soldado a la placa y por lo tanto te será imposible cambiarlo para actualizarlo. Es muy usado en los laptops, como te comente anteriormente, ya que disminuye el tamaño total del equipo.



El procesador es uno de los elementos del PC que más ha evolucionado a lo largo del tiempo. Gracias a las mejoras en la tecnología de fabricación se ha reducido el tamaño de los transistores que se encuentran en su interior permitiendo integrar un mayor número de ellos. Estos elementos no son más que pequeños ladrillos que unidos configuran la funcionalidad del micro. Como se realiza esta interconexión es lo que se denomina arquitectura.



Gracias a estas mejoras, sobre todo en cuanto a área ocupada, se pueden incluir más bloques funcionales en su interior. En un principio fue el controlador de memoria, después la tarjeta gráfica y en un futuro muy cercano, pasaremos del concepto de procesador a lo que se denomina SOC, es decir, un chip con todos los elementos de la placa base en su interior.





¿Qué componentes tiene un procesador?





Ten en cuenta que no todos son iguales pero la mayoría de ellos incluyen entre otros elementos:



Núcleos. Un núcleo no es más que un procesador en miniatura. Al tener varios, dentro del mismo procesador, podrás trabajar con más de una aplicación al mismo tiempo y puedes acelerar ciertos tipos de aplicaciones y evitar bloqueos.


Cache. El sistema de memoria es muy importante y se divide en varios elementos. La memoria cache, es el más cercano al micro ya que se encuentra en su interior. Se usa para mejorar la velocidad de los accesos a la memoria RAM. Si un dato se encuentra en la cache no tendrá que buscarlo en toda la RAM y por lo tanto el procesado final es mucho más rápido.
La cache se encuentra, a su vez, organizada en varios niveles cada uno más lento y grande que el anterior. Será tarea del micro dejar los datos que más se usen lo más cerca posible del micro.
No olvides que la memoria RAM almacena tanto los datos como las instrucciones de tus programas y utilidades.

Controlador de memoria. Este fue uno de los primeros elementos que se quiso integrar en el micro. Se hizo porque al incorporar el controlador de memoria en el interior del procesador y quitarlo de la placa base se consigue aumentar la velocidad de la memoria RAM. Esto tiene un inconveniente y es que sólo puedes usar el tipo de memoria para la que tu procesador este preparado.
Antiguamente la memoria dependía de la placa base y no era raro que esta estuviera preparada para poder funcionar con varios tipos de memoria RAM.

Tarjeta gráfica. Si integran este componente ya no hablamos de CPU sino de APUs. Ya no estaríamos ante un micro convencional si no ante un hibrido entre procesador y tarjeta gráfica. En la actualidad y parece que en desarrollos futuros vamos a tener siempre este tipo de dispositivos.
La inclusión de este elemento es fundamental ya que las tarjetas gráficas están compuestas de pequeños núcleos en su interior que pueden usarse para acelerar cierto tipo de informaciones. Al pasar al interior del micro pueden hacer su trabajo de una forma mucho más eficiente.

Otros elementos. Los micros han incorporado aún mas funcionalidad que antes se encontraba sobre la placa base. Por ejemplo, el controlador de PCI Express, aumentando la velocidad con la que el micro es capaz de comunicarse, por ejemplo, con una tarjeta gráfica discreta.


CONCLUSIONES



- Es importante conocer las funciones de nuestro procesador ya que de esta manera podremos determinar aquel que preste mejor servicio, el procesador no es solo un componente baladí o sin importancia son que es aquel que controla todas las actividades de nuestro ordenador.

- La precisión de nuestro procesador radica principalmente en sus componentes, actualmente uno de los mejores procesadores es el i7 que ofrece una interfaz totalmente rauda que nos permite estar a la vanguardia del modernismo tecnológico.






RECOMENDACIONES

- Se recomienda analizar bien el documento informativo expuesto y ampliar aun más nuestro conocimiento convirtiendo a este tema en algo loable para nuestro conocimiento.

- Concordar con alguien y llegar a sacar propias conclusiones acerca del mejor procesador, buscar siempre el vanguardismo y el conocimiento más acertado de la informática, de esta manera podremos desarrollar mejor la concepción del mundo y de nuestro entorno. 


LINKOGRAFÍA

http://www.informatica-hoy.com.ar/aprender-informatica/El-Procesador-de-la-computadora.php
http://es.wikipedia.org/wiki/Procesador




martes, 27 de mayo de 2014

WEB 4.0

UNIDAD EDUCATIVA KASAMA
 

MATERIA: INFORMÁTICA APLICADA

NOMBRE: EDUARDO ALARCÓN

CURSO: 3RO B.G.U. "C"

LIC. STALIN ANZULES

FECHA: 27 DE MAYO DE 2014

TEMA: LA WEB 4.0




INTRODUCCIÓN 
En el presente trabajo se dará información y se mencionará aspectos relevantes con lo que tiene que ver con la web 4.0. Para dar una breve introducción al tema primero debemos saber lo que es la web, la web es un conjunto de información que se encuentra en una dirección determinada de Internet. Con esto podemos entender que todo lugar en Internet donde nosotros encontramos información es una web.


DESARROLLO DEL TEMA
La Web 4.0 es un nuevo modelo de Web que nace con el objetivo de resolver las limitaciones de la Web actual. La Web 4.0 propone un nuevo modelo de interacción con el usuario más completo y personalizado, no limitándose simplemente a mostrar información, sino comportándose como un espejo mágico que de soluciones concretas a las necesidades el usuario.Actualmente las formas que tiene un usuario de interactuar con la Web son muy limitadas. Una parte fundamental de la Web tal como hoy la conocemos son los buscadores, con el tiempo hemos ido aprendiendo su funcionamiento y nos hemos adaptado a sus limitaciones. Su principal limitación es que no hablan el lenguaje del usuario, no son capaces de responder a preguntas del estilo ¿En qué año murió Kennedy? Y no las pueden responder por una sencilla razón, no son capaces de entenderla.La Web semántica promete mejorar este problema aplicando técnicas de procesado del lenguaje natural, pero la solución que propone no es suficiente, la Web 3.0 será capaz de responder a la pregunta anterior, pero la novedad se limitará a obtener resultados de búsqueda más precisos. Nunca podrá responder consultas del tipo “Quiero que un taxi venga a buscarme”.Web 4.0 es una capa de integración necesaria para la explotación de la Web semántica y sus enormes posibilidades.Es la web sucesora de la WEB 3.0, o mejor dicho un sistema operativo virtual.En lo que consiste la web 4.0 es algo tan sencillo como cumplir los siguientes 4 conceptos:
  • Usable
  • Accesible
  • Indexable
  • Actualizable
 Usable
Realmente la usabilidad va mucho mas allá de la web, Es un concepto que debe guiar cualquier proyecto y por supuesto también el desarrollo de una web. Si tuviera que elegir entre cualquiera de los 4 conceptos que aquí muestro sin duda el mas importante seria la usabilidad porque además engloba a todos los demás. Seguir las enseñanzas de un maestro de la usabilidad como es Jakob Nielsen haría de Internet una herramienta mucho mas útil.

Accesible

Cumplir las normas y los estándares de accesibilidad marcados por la W3C en sus normas WAI debería ser objetivo primordial en cualquier web que se precie. La realidad es muy distinto, muy pocas son las webs que pasarían una revisión de accesibilidad.

Indexable

Hacer que una web sea indexable, es decir que pueda recorrerla los buscadores hará que los cibernautas puedan localizar mas fácilmente la información que mostramos. De que sirve tener una web espectacular en Flash si nadie puede encontrarnos cuando busca en Google. Las técnicas SEO nos ayudan a hacer nuestra web indexable y por tanto localizable a través de los buscadores, sin duda un mundo por descubrir para el 99,9% de las webs.

Actualizable 
Y por ultimo, una vez que tenemos una web usable, accesible e indexable y de la que estamos realmente orgullosos, nos damos cuenta de que el trabajo solo ha comenzado. Si, ahora toca actualizar la web con regularidad, crear contenidos de calidad, estar al día con las ultimas noticias y ofrecer información útil para el cibernauta. Por que al fin y al cabo de eso se trata.
CARACTERÍSTICAS:
-Nos permitirá dialogar creando una realidad virtual que supere nuestras espectativas con respecto a la web actual.
- Nos permitirá buscar información de manera más eficaz y rápita, facilitándonos el trabajo al darnos información más detallada y completa.
-Revolucionará la información virtual creando un campo de visión más amplio para el ser humano con respecto a conocimiento ya que se dará un catálogo más amplio de información.


CONCLUSIONES
-La web 4.0 es un sistema en el cual se está trabajando y algunas personas ya han dado a conocer avances de este tipo de web, además de ser un lugar donde se encuentra información la web 4.0 busca ser una plataforma interactiva donde el usuario sea el que de a conocer lo que necesita y la web satisfaga sus deseos.
-Si la web 4.0 se desarrolla con todo su potencial tendremos tecnología de alta calidad que nos permitirá adquirir conocimientos más grandes de tal manera que cada generación se desarrolle de mejor manera.


RECOMENDACIONES
-Debemos de ponernos al tanto de esta plataforma para tener el conocimiento necesario para ingresar a comernos el mundo con todo el conocimiento que podremos adquirir, estaremos preparados únicamente si leemos e investigamos usando la web actual para nuestro beneficio.
-Utilizar todos los accesorios disponibles y los medios alcanzados para aprender mas acerca de temas relevantes a nuestro alrededor para de esta manera saber indagar y la manera de encontrar la información en la web.
LINKOGRAFÍA