martes, 21 de octubre de 2008

Como Captura ofidios

Como se ha mencionado anteriormente, es de vital importancia la captura del ofidio agresor para su identificación y la diagnosis del tipo de envenenamiento.Generalmente no es demasiado difícil recoger los ofidios apretándoles la cabeza con cualquier palo, o mejor aun con uno en cuyo extremo se ha sujetado un alambre grueso en forma de “L”.

Pero está opresión es arriesgada principalmente para personas no habilitadas a ello. Un instrumento más seguro para la sujetación del ofidio lo constituye el lazo, correa de cuero de aproximadamente 2cm. de ancho y poco más de 1mts. y ½ de largo.

Uno de sus extremos se sujeta al extremo de un palo de 1,50mts. de largo en este extremo del palo se fija un pasador de alambre o de chapa por donde se hará correr el extremo libre de la correa. Por lo tanto, tirando de ese extremo se puede apretar sin riesgo alguno para el colector, a los ofidios ponzoñosos.

Tanto el gancho en “L” como el lazo son más eficaces cuando más grande y pesado sea el ofidio, ya que sus movimientos serán más lentos que cuando se trate de una culebra, siempre más ágil.Cuando se requiere capturar el ofidio vivo para remitirlo a un centro especializado debe evitarse dañarlo.
Pero cuando se lo captura para identificación por ser el causante de un accidente, el método de captura puede ser, siempre que guarde seguridad para el colector, el que permitan las circunstancias del caso. Así, con una vara, machete o cualquier objeto contundente que se tenga a mano, un golpe detrás de la cabeza suele ser suficiente para dejar al ofidio inerte.

Tratando en lo posible de no lesionar demasiado la cabeza del animal.Una vez que el ofidio quede inmóvil, se lo levantará con un palo (no confiar en esa inmovilidad porque puede reaccionar súbitamente), y se lo colocará dentro de un recipiente (bolsa u otro envase preferiblemente con tapa). Se llevará entonces al ofidio junto con el accidentado.


Los Efectos venenosos que pueden causar los ofidios



Los venenos de estos ofidios son complejos proteínicos que tiene diversas enzimas de gran variabilidad en sus acciones toxicas, lecionantes y farmacológicas.

Entre los diversos fermentos proteolíticos sean identificados algunos muy activos que lesionan capilares, vasos mayores y células los tejidos provocando inflamación, hemorragias y destrucción local de los mismo. Esta destrucción libera substancias como histamina, serótinas, etc.
de intensa actividad general y que provocan el shock en los pacientes. Además se puede reconocer hialuronidasa, sustancia compleja que favorece la difusión del veneno. La cantidad de veneno emitida por mordedura oscila entre 0,1 a1, 5 ml variando por consiguiente sus efectos tóxicos y hasta letales, según especies y circunstancias, que hacen difícil calcular el volumen inoculado de veneno para así, poder dosificar el suero antitóxico a suministrarse.

Los efectos de las ponzoñas es posible distinguirlos según conjuntos sintomáticos predomínales. El veneno bothrópico (yararaes) tiene una intensa acción local (histolisis, necrosis) que puede llegar hasta la amputación del miembro afectado.Según diversos autores, su acción general sobre la sangre se manifiesta como un síndrome de coagulación intravascular diseminada (por alto consumo de fibrinógeno).

El tiempo de coagulación aparece muy prolongado y justamente, al acostarse, puede inferirse mejoría del paciente.El veneno crotálico, aún cuando tiene alguna actividad coagulante fundamentalmente es hemolítico y neurotóxico con actividad curarizante (parálisis fláccidas).

Ambas ponzoñas (bothrópica y crotálica) agreden al riñón y producen fuerte shock.La toxina corálica actúa exclusivamente y con efectos paralizantes sobre el sistema nervioso central. El óbito puede producirse por su acción sobre el centro respiratorio bulbar.

martes, 14 de octubre de 2008


EVOLUCION DE INTERNET
Finales de los años 50 Para ver la evolución de Internet debemos remontarnos a finales de los años 50 cuando se crea ARPA, la Agencia de Proyectos de Investigación Avanzada, en el seno del Departamento de Defensa de los Estados Unidos. Principios de los años 60 Se comienza a pensar en la idea de una red descentralizada en el Instituto Tecnológico de Massachusetts (MIT) y en la corporacion RAND.

Año 1961 Leonard Kleinrock publica en Julio de este año el primer trabajo sobre "conmutación de paquetes". El Pentágono a través de ARPA financión la puesta en marcha de una prueba práctica. Kleinrock covenció a Lawrence G. Roberts de la viabilidad de las comunicaciones basadas en paquetes en lugar de circuitos, lo cual resultó un avance en el camino hacia el trabajo informático en red.

Año 1962 En agosto de este año, aparece la primera descripción documentada de las interacciones sociales que podrían ser propiciadad por el trabajo en red en una serie de memorándums escritos por J.C.R. LickLider, del MIT.


Paralelamente entre 1962 y 1964 la RAND corporation publica una serie de artículos escritos por Paul Baran sobre "Redes de Comunicación Distribuidas". El objetivo de la propuesta era plantear una red que tuviera la máxiam resistencia ante un ataque enemigo.

Año 1964 La RAND corporation propone una red que no disponga de una autoridad central y se sugiere un diseño que desde el principio está preparado para trabajar en un entorno fragmentado. Todos los nodos debreían tener un status parecido y cada uno de ellos tendría autonomia y poder suficientes para generar, vehicular y recibir mensajes que a su vez pudieran ser separados en paquetes y ser enviados por separado

Año 1966 A finales de este año Lawrence G. Roberts se trasladó a ARPA para desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANet. En la conferencia en que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANet fue aumentada desde 2,4 Kbps hasta 50 Kbps

Años 70 Durante este periodo, esta red fue de acceso restringido a los investigadores y a las empresas privadas que participaban en proyectos financiados por la administración

Año 1970 Vinton Cerf escribe por primera vez la palabra Internet. La escena tiene lugar a principios de los setenta en un hotel de San Francisco. Vinton, considerado el padre de la red, escribió la palabra Internet en el dorso de un sobre intentando explicar a sus compañeros la idea que había tenido sobre cómo distribuir información a través del a red que entonces se conocía como Internet. Este diseño sería la base del protocolo TCP/IP, que rige aún las comunicaciones por Internet.

Kevin MacKenzie se inventa el primer smiley: :-).
Año 1971 Crece la popularidad del correo electrónico sobre redes de almacenamiento y envío. En 1971, ARPANet había crecido hasta 15 nodos con 23 ordenadores hosts (centrales).
Año 1972 El primer programa específicamente diseñado para el email se atribuye a Ray Tomlinson, de la BBN (Bolton, Beranek and Newman), en 1972. Se remitió el primer mensaje de correo electrónico usándose el conocido símbolo de la arroba, @.

El símbolo @ se convirtió en el símbolo del correo electrónico por pura casualidad. Ray Tomlinson necesitaba un signo que separara el nombre del usuario del de la máquina.

Se limitó a bajar los ojos hacia el teclado (un teletipo modelo 33 trabajando con un ordenador Tenex) y escogió la arroba porque necesitaba que no fuera una letra que pudiera estar en ningún apellido. La decisión causó una primera batalla de estándares porque ara los usuarios de Multics el signo @ era el que borraba líneas. De manera que no podían usar el correo.
Finalmente tuvieron que modificar el sistema.

En 1972 Larry Roberts de DARPA decidió que el proyecto necesitaba un empujón. Organizó la presentación de ARPANET en la Conferencia Internacional sobre Comunicaciones por Ordenador. A partir de esta conferencia, se formó un grupo de trabajo internacional para investigar sobre los protocolos de comunicación que permitirían a ordenadores conectados a la red, comunicarse de una manera transparente a través de la transmisión de paquetes de información.

Aparece la posibilidad de realizar un Telnet.
Año 1973 Durante el mes de setiembre de este año hubo una importante reunión en Brighton (Inglaterra) donde los americanos mostraron por primera vez a los europeos el funcionamiento de ArpaNet. Para que ello fuera posible tuvieron que realizar un enlace vía satélite, provisional durante unos dias, que transportaba los datos a través del Atlántico. Leonard Kleinrock volvió a los Angeles unos días antes que finalizara el congreso y cuando llegó a casa se dio cuenta que se había dejado una máquina de afeitar y descubrió que, efectivamente, en Brighton aún estaba conectado Larry Roberts.


Kleinrock le pidió a Roberts que le recuperara su máquina de afeitar y éste lo hizo. La sorpresa fue que días mást arde Kleinrock fue acusado de haber realizado un uso indebido de material militar (que incluía de hecho hasta un satélite).
Aparece la posibilidad de realizar un FTP.


Año 1974 En 1974 se estableció el Transmission Control Protocol (TCP), creado por Vinton Cerf y Robert Kahn que luego fue desarrollado hasta convenirse en el Transmission Control Protocol/Internet Protocol (TCP/IP). TCP convierte los mensajes en pequeños paquetes de información que viajan por la red de forma separada hasta llegar a su destino donde vuelven a reagruparse. IP maneja el direccionamiento de los envíos de datos, asegurando que los paquetes de información separados se encaminan por vías separadas a través de diversos nodos, e incluso a través de múltiples redes con arquitecturas distintas.

Año 1975 En julio de 1975 ARPANET fue transferido por DARPA a la Agencia de Comunicaciones de Defensa.
Año 1977 Aparece la primera lista de correo. Se trataba de TheryLink y agrupaba a casi un centenar de científicos. En 1979 nacería Usenet y hoy hay más de 50.000 newsgroups o grupos de noticias en el mundo. El crecimiento tan brutal de las listas obligó en 1987 a crear las jerarquías (las primeras fueron .comp, .news y .misc).


Año 1979 Nace Usenet. Creada por tres estudiantes: Tom Truscott, Jim Ellis y Steve Bellovin. Usenet es un servicio de grupos de noticias, las populares "news".
Año 1980 Aparecen las primeras aplicaciones TCP/IP. Internet ya tiene 212 servidores
Año 1982 ARPANet adopta el protocolo TCP/IP como estándar. Se crea la EuNet (European Unix Network). La "European Unix Network" (EuNet), conectado a ARPANet, se creó en 1982 para proporcionar servicios de correo electrónico y servicios Usenet a diversas organizaciones usuarias en los Países Bajos, Dinamarca, Suecia e Inglaterra


Año 1983 ARPANet en sí mismo permaneció estrechamente controlado por el departamento de defensa hasta 1983 cuando su parte estrictamente militar se segmentó convirtiéndose en MILNET. El Pentágono se retira de Arpanet y crea Milnet. Internet ya dispone de 562 servidores. Se creó el sistema de nombres de dominios (.com, .edu, etc., más las siglas de los países), que prácticamente se ha mantenido hasta ahora.

En la constitución y crecimiento de esta nueva "red de redes"que pronto contó con nodos en Europa, las agencias federales norteamericanas prestaron mucho apoyo, financiando las infraestructura, por ejemplo
Año 1984 Se introduce el DNS (Domain Name Server) En 1984 el número de servidores conectados a la red había ya superado los 1.000. Dado que el software de TCP/IP era de dominio público y la tecnología básica de Internet (como ya se denominaba esta red internacional extendida) era algo anárquica debido a su naturaleza, era difícil evitar que cualquier persona en disposición del necesario hardware (normalmente en universidades o grandes empresas tecnológicas) se conectase a la red desde múltiples sitios.


En 1984 William Gibson novelaba el nuevo mundo y acuñaba el término "ciberespacio". Al año siguiente se forjaba Well, la primera comunidad comercial de usuarios
Año 1985 La National Science Fundation (NSF) establece en este año cinco centros para superordenadores configurando con ello la principal red que utilizaría la comunidad científica a partir de se momento. Lo que hace es conectar seis centros de supercomputación.
Internet tiene ya 1961 servidores.


En abril aparecen los primeros dominios con letra (antes eran con números). Los primeros dominios con letras en aparecer fueron: acmu.edu, purdue.edu, rice.edu y ucla.edu, todos en activo aún por supuesto y todos universitarios también por supuesto. El primer dominio comercial en aparecer es algo no aclarado. Para algunos fue simbolics.com (un fabricante de software y hardware para el lenguaje de inteligencia artificial Lisp, esta página ya no funciona) y para otros think.com. En junio del mismo año apareció el primer dominio gubernamental, css.gov y en julio mitre.org. El primer dominio de un país fue en julio de ese mismo año para Gran Bretaña: co.uk


Año 1986 La National Science Fundation (NSF) de EE.UU. inició el desarrollo de NSFNET que se diseñó originalmente para conectar cinco superordenadores. Su interconexión con Internet requería unas líneas de altísima velocidad.
Esto aceleró el desarrollo tecnológico de Internet y brindó a los usuarios mejores infraestructuras de telecomunicaciones. Otras agencias de la Administración norteamericana entraron en Internet, con sus inmensos recursos informáticas y de comunicaciones: NASA y el Departamento de Energía. Un acontecimiento muy importante era que los proveedores comerciales de telecomunicaciones en EE. UU. y Europa empezaron a ofrecer servicios comerciales de transporte de señales y acceso

Año 1987 El número de servidores conectados a Internet superaba ya los 10.000
Año 1988 Internet ya dispone de 56.000 servidores


Año 1989 Tim Beners-Lee, investigador en el centro europeo CERN de Suiza, elaboró su propuesta de un sistema de hipertexto compartido:

era el primer esbozo de la World Wide Web. Como el ARPANet veinte años atrás, su propósito era poner en comunicación a los científicos.

La WWW es una creación europea fruto del trabajo de Tim Beners-Lee y Robert Cailauu que en 1989 trabajan conjuntamente desde el Centro Europeo de Física de Partículas (CERN) en Ginebra.
Su objetivo era buscar una herramienta de trabajo para crear y leer textos a través de una red que permitía intercomunicar a los físicos de todo el mundo.

La web, basadas en el concepto del hipertexto, ha sido un soporte excelente para la introducción de las denominadas aplicaciones multimedia en las comunicaciones telemáticas. En Internet aun es posible encontrar una captura de pantalla del ordenador personal de Tim Beners-Lee, un Next, en que se ve el primer navegador de todos y como era la web cuando solo tenia un usuario. Beners-Lee creó el HTML, el HTTP y las URL.

Beners-Lee es muy crítico con el uso comercial de la web y de hecho renunció a una empresa que había creado al inventar el web, empresa denominada WebSoft. Actualmente trabaja en el MIT en los Estados Unidos y sigue tan despistado como siempre según algunas fuentes.
Jarkko Oikarinen, un joven finlandés, decidió modificar el comando talk del Unix para permitir que diversas personas pudieran charlar de forma simultánea. Así nace el chat, el Internet Relay Chat (IRC) que permite que se pueda conversar en la red.


Año 1990 Creación de la Electronic Frontier Foundation. Internet ya tiene 313.000 servidores. En 1990 redes de diversos países como España, Argentina, Austria, Brasil, Chile, Irlanda, Suiza y Corea del Sur se conectaron también a NSFNET

Año 1991 En febrero de 1991 es la fecha que se cita como la invención del denominado Spam, el envio masivo de correo electrónico no solicitado. Según estas fuentes todo empezó inocentemente: se trataba de enviar mensajes a un niño de 9 años llamado Craig Shergold gravemente enfermo. El muchacho intentaba batir el record mundial de cartas recibidas y lo consiguió. Ello dio ideas a algunas empresas y en abril de 1994 una empresa de abogados, Center&Siegel tuvo el dudoso honor de empezar a usar comercialmente el correo electrónico para envios masivos no solicitados. La venganza que recibieron de la red por lo visto aun les dura.

En marzo de 1991 Tim Beners-Lee pone en marcha el primer navegador de la web (que funcionaba aún con linea de comandos de modo que a años luz del lujo actual).

Tim, el creador de la web, ya había creado en el año 1980 programas hipertextuales. En el CERN guardan la página original con los primeros servidores que se crearon. Es una página de noviembre de 1992, cuando solo había 26 ordenadores capaces de servir páginas web. La página advierte de que su contenido es una reliquia para la posteridad, para no confundir a despistados…

En 1991 se retiraron las restricciones de NFS al uso comercial de Internet. Ese mismo año también se Conectaron más países a la NSFNET incluyendo: Croacia, Hong Kong, República Checa, Sudáfrica, Singapur, Hungría, Polonia, Portugal, Taiwan y Túnez.

Año 1993 Aparece el primer visualizador gráfico de páginas web: Mosaic, el antecesor de Netscape.El conocido navegador WWW Mosaic se desarrolló en el National Center for Supercomputing. Con la extensión de los ordenadores personales y el lanzamiento del primer navegador de la WWW popular, Mosaic, en 1993, ya había llegado el momento de "surfear la Web" (la expresión se registró por primera vez ese mismo año).

En 1993 el número de servidores Internet sobrepasa los 2.000.000. También NSF patrocina la formación de una nueva organización, ínterNIC, creada para proporcionar servicios de registro en Internet y bases de datos de direcciones
Año 1994 En 1994 se abre el primer ciberbanco.


Año 1995 En octubre de 1995 Netscape puso en la red el primer navegador. Para celebrarlo sus desarrolladores hicieron una fiesta con pizzas e instalaron un apantalla gigante para ver en la Silicon Graphics como empezaban a descolgarse navegadores. El primer usuario de Netscape fue un japonés y a medianoche los desarrolladores se dieron cuenta que el servidor indicaba qué versión era la que la gente se estaba bajando así que pusieron un sonido diferente para la de Windows, Mac y Unix que se oía cada vez que empezaba un download.
Aparece RealAudio, que tranmitirá sonido y voz por la red.


En 1995 había más de 5 millones de servidores conectados a Internet. La espina dorsal de NSFNET empezaba a ser sustituido por proveedores comerciales interconectados
Año 1997 Ya hay 17 millones de servidores en la red.


Año 1999 El tremendo crecimiento de la red, unido a la autonomía de su funcionamiento, hacen que grandes zonas de sus contenidos estén en la penumbra: según datos de 1999 el conjunto de los grandes buscadores de páginas en la Malla Mundial sólo conoce el contenido de menos del 50% e la red. La Última iniciativa, Internet 2, propone crear un espacio aparte y de más calidad de comunicaciones para instituciones de investigación

Año 2000 Internet está formada, no solamente de restos de la ARPANet original, sino que también incluye redes como la Academia Australiana de Investigación de redes (AARNET), la NASA Science Internet (NSI), la Red Académica de Investigación Suiza (SWITCH), por no mencionar las miles de redes de mayor o menor tamaño de tipo educativo y de investigación
Año 2001 ?????

WEB 1.0
Es un tipo de web estática con documentos que jamás se actualizaban y los contenidos dirigidos a la navegación (HTML y GIF).
WEB 2.0

El término Web 2.0 fue acuñado por Tim O'Reilly en 2004 para referirse a una segunda generación en la historia de la Web basada en comunidades de usuarios y una gama especial de servicios, como las redes sociales, los blogs, los wikis o las folcsonomías, que fomentan la colaboración y el intercambio ágil de información entre los usuarios

La Web 2.0 es la representación de la evolución de las aplicaciones tradicionales hacia aplicaciones web enfocadas al usuario final. El Web 2.0 es una actitud y no precisamente una tecnología.La Web 2.0 es la transición que se ha dado de aplicaciones tradicionales hacia aplicaciones que funcionan a través del web enfocado al usuario final.
Se trata de aplicaciones que generen colaboración y de servicios que reemplacen las aplicaciones de escritorio. Es una etapa que ha definido nuevos proyectos en Internet y está preocupándose por brindar mejores soluciones para el usuario final. Muchos aseguran que hemos reinventado lo que era el Internet, otros hablan de burbujas e inversiones, pero la realidad es que la evolución natural del medio realmente ha propuesto cosas más interesantes como lo analizamos diariamente en las notas de Actualidad.
Y es que cuando el web inició, nos encontrábamos en un entorno estático, con páginas en HTML que sufrían pocas actualizaciones y no tenían interacción con el usuario.Pero para entender de donde viene el término de Web 2.0 tenemos que remontarnos al momento en que Dale Dougherty de O’Reilly Media utilizó este término en una conferencia en la que compartió una lluvia de ideas junto a Craig Cline de MediaLive. En dicho evento se hablaba del renacimiento y evolución de la web.Constantemente estaban surgiendo nuevas aplicaciones y sitios con sorprendentes funcionalidades.
Y así se dio la pauta para la Web 2.0 conference que arranca en el 2004 y hoy en día se realiza anualmente en San Francisco, con eventos adicionales utilizando la marca en otros países.En la charla inicial del Web Conference se habló de los principios que tenían las aplicaciones Web 2.0:
• La web es la plataforma
• La información es lo que mueve al Internet
• Efectos de la red movidos por una arquitectura de participación.
• La innovación surge de características distribuidas por desarrolladores independientes.
• El fin del círculo de adopción de software pues tenemos servicios en beta perpetuo
Ejemplo:
WEB 1.0
DoubleClick
Ofoto
Akamai
mp3.com
Enciclopedia Británica
webs personales
evite
especulación de nombres de dominios
páginas vistasscreen scraping
publicación
sistema de gestión de contenidos
directorios (taxonomía)
stickiness
WEB 2.0
Google AdSense
Flickr
BitTorrent
Napster
Wikipedia
blogging
upcoming.org y EVDB
optimización de los motores de búsqueda
coste por clic
servicios web
participaciónwiki
etiquetas (folcsonomía)
sindicación

Web 3.0 es un neologismo que se utiliza para describir la evolución del uso y la interacción en la red a través de diferentes caminos. Ello incluye, la transformación de la red en una base de datos, un movimiento hacia hacer los contenidos accesibles por múltiples aplicaciones non-browser, el empuje de las tecnologías de inteligencia artificial, la web semántica, la Web Geoespacial, o la Web 3D. Frecuentemente es utilizado por el mercado para promocionar las mejoras respecto a la Web 2.0. El término Web 3.0 apareció por primera vez en 2006 en un artículo de Jeffrey Zeldman, crítico de la Web 2.0 y asociado a tecnologías como Ajax. Actualmente existe un debate considerable en torno a lo que significa Web 3.0, y cual es la definición acertada.

Las tecnologías de la Web 3.0, como programas inteligentes, que utilizan datos semánticos; se han implementado y usado a pequeña escala en compañías para conseguir una manipulación de datos más eficiente. En los últimos años, sin embargo, ha habido un mayor enfoque dirigido a trasladar estas tecnologías de inteligencia semántica al público general.El primer paso hacia la "Web 3.0" es el nacimiento de la "Data Web", ya que los formatos en que se publica la información en Internet son dispares, como XML, RDF y microformatos; el reciente crecimiento de la tecnología SPARQL, permite un lenguaje estandarizado y API para la búsqueda a través de bases de datos en la red.
La "Data Web" permite un nuevo nivel de integración de datos y aplicación inter-operable, haciendo los datos tan accesibles y enlazables como las páginas web. La "Data Web" es el primer paso hacia la completa “Web Semántica”. En la fase “Data Web”, el objetivo es principalmente, hacer que los datos estructurados sean accesibles utilizando RDF. El escenario de la "Web Semántica" ampliará su alcance en tanto que los datos estructurados e incluso, lo que tradicionalmente se ha denominado contenido semi-estructurado (como páginas web, documentos, etc.), esté disponible en los formatos semánticos de RDF y OWL.2Web 3.0 también ha sido utilizada para describir el camino evolutivo de la red que conduce a la inteligencia artificial.
Algunos escépticos lo ven como una visión inalcanzable. Sin embargo, compañías como IBM y Google están implementando nuevas tecnologías que cosechan información sorprendente, como el hecho de hacer predicciones de canciones que serán un éxito, tomando como base información de las webs de música de la Universidad. Existe también un debate sobre si la fuerza conductora tras Web 3.0 serán los sistemas inteligentes, o si la inteligencia vendrá de una forma más orgánica, es decir, de sistemas de inteligencia humana, a través de servicios colaborativos como del.icio.us, Flickr y Digg, que extraen el sentido y el orden de la red existente y cómo la gente interactúa con ella.

En general, se asocia la Web 3.0 a una nueva etapa destinada a añadir significado a la web, y por tal motivo se acuerda con Tim Berners-Lee, el creador de la World Wide Web, en llamarla Web Semántica.Todavía no se ha incorporado el cambio de actitud, que como señala Christian Van Der Henst S. implica la Web 2.0, cuando ya se habla de Web 3.0, como de una realidad inminente que promete transformar no sólo nuestra experiencia web, sino toda nuestra cotidianidad.
. ¿Cómo se caracteriza y diferencia la Web 3.0 de la Web 1.0 y de la Web 2.0?El desarrollador uruguayo,Andrés Richero, presenta el siguiente esquema:
• Web 1.0 - Personas conectándose a la Web
• Web 2.0 - Personas conectándose a personas - redes sociales, wikis, colaboración, posibilidad de compartir.
• Web 3.0 - Aplicaciones web conectándose a aplicaciones web, a fin de enriquecer la experiencia de las personas, a esto agrega: estado de conciencia del contexto en la Web Geoespacial, autonomía respecto del navegador y construcción de la Web Semántica.
Sobre este último punto, cabe acotar que si bien diferentes factores se conjugan en la Web 3.0 a favor de la semantización de la web, en tanto esto es un proceso, no es privativo de ella. Por tal motivo, quizás sea más apropiado concebir la construcción de la Web Semántica, por fuera y por encima de estos estadíos o instancias.Ejemplos Los weblogs o bitácoras, los podcasts, los sistemas de RSS, las wikis y otras aplicaciones orientadas a proveer un servicio social. Ejemplos de sitios y empresas que utilizan la Web 2.0 son Wikipedia, del.icio.us, Flickr, MySpace o YouTube.
RSS

RSS es un sencillo formato de datos que es utilizado para redifundir contenidos a suscriptores de un sitio web. El formato permite distribuir contenido sin necesidad de un navegador, utilizando un software diseñado para leer estos contenidos RSS (agregador). A pesar de eso, es posible utilizar el mismo navegador para ver los contenidos RSS. Las últimas versiones de los principales navegadores permiten leer los RSS sin necesidad de software adicional. RSS es parte de la familia de los formatos XML desarrollado específicamente para todo tipo de sitios que se actualicen con frecuencia y por medio del cual se puede compartir la información y usarla en otros sitios web o programas. A esto se le conoce como redifusión web o sindicación web (una traducción incorrecta, pero de uso muy común).

martes, 7 de octubre de 2008


¿Que son los ofidios?

Los ofidios son un orden de reptiles saurios de la subclase de los diápsidos, sin patas y sin esqueleto escapular o humeral; carecen de esternón y del paladar, tienen movimientos libres, que permiten al animal abrir desmesuradamente la boca, para engullir enteras a sus víctimas, que luego digiere.
El cuerpo es alargado y está revertido de piel escamosa.

Sólo poseen oído interno, la lengua es bífida y los párpados están soldados y son transparentes, a lo que deben la fijeza de su mirada.

El pulmón izquierdo está reducido; poseen dientes cónicos y finos, algunos de los cuales están acanalados o poseen un conducto interior para expulsar el veneno segregado por dos glándulas situadas a los lados de la cabeza, y que inyectan al morder.

Debido a la forma de ingerir sus presas, la deglución y la digestión son relativamente lentas.
Hay unas 2.000 especies, en su mayor parte propias de los mares tropicales y subtropicales; las de los países templados sufren un entumecimiento invernal.

Se agrupan en una veintena de familias, de las que las más importantes son las de los vipéridos, crotálidos, elápidos, boidos, pitónidos y colúbridos.

Se agrupan con los saurios y otros en el superorden de los lepidosaurios, saurofidios, escamosos o plagiotremas. Algunos zoólogos consideran a éstos como orden, y a los ofidios como uno de sus subórdenes.

martes, 2 de septiembre de 2008


Cuidados que debemos tener con los conejos

Para la mayoría de la gente la palabra "CONEJO", significa la imagen de un animalito con una mirada gentil y una nariz que se mueve constantemente.
Lo único que se conoce del los conejos es que se reproducen fácilmente y rápido.Si bien siempre se lo presenta como un animal huidizo y asustadizo, el conejo es un animal con unas cualidades extraordinarias, especialmente en lo que refiere a su relación con el ser humano.
Se sabe que es uno de los animales mas populares para uso doméstico en EE.UU., Gran Bretaña, Dinamarca y otros países de Europa, que hay más de 50 razas reconocidas, incluyendo todos los tipos de colores, tamaños, largos de orejas y pelajes?.

También se asombrarían de lo amorosos y sociables, gentiles y compañeros que son; su capacidad de adaptabilidad y su agradable convivir.
Los conejos son mas inteligentes, aprenden con bastante mas facilidad, siendo, además, mucho mas sociables. Aprenden fácilmente a no hacer sus necesidades en cualquier sitio, a utilizar una caja con aserrín o piedritas para gatos y responder a un nombre y estímulos en poco tiempo.

¿Dónde debemos ubicar y alojar a nuestro conejo?Es muy importante que todos entendamos que los conejos necesitan tener un lugar donde protegerse o sentirse seguros en caso que un depredador lo moleste o cuando sienta la necesidad de estar tranquilo.
Esto lo aclaramos porque mucha gente tiene la errónea idea de que el hecho de colocar un conejo en una jaula significa quitarle la libertad.

Los conejos pueden sentirse seguros dentro de las jaulas, y también la adoptaran como su hogar, destinando parte de la misma para hacer sus necesidades, parte para jugar y parte para descansar y dormir.
Por otro lado, tanto los conejos como cualquier otra mascota no deberían estar sueltos constantemente dentro de una casa, no solo por los peligros que éstos corren sin saberlo, sino por nuestra propia casa.

Cualquier mascota tiende a orinar y hacer sus necesidades por cualquier parte, a menos que se le destine y delimite una en especial.
Los conejos siempre necesitarán buena ventilación, estén al exterior o en el interior. En los meses de verano, mantener el alojamiento a la sombra, ya que no tolera bien el calor. En invierno puede colocar un plástico alrededor de la jaula, dejando espacio en la base para ventilación, resguardando el interior de humedad y del viento.


Rastros de los conejos
estos son algunos de los rastros de los conejos en lo cual nos podemos dar cuenta si alguna ves hemos visto alguno o los tenemos en nuastra casa y tambien si hemos visto sus guaridas y ademas como cavan los agujeros.
Excrementos de conejo adulto en el característico cagarrutero, con excrementos de diferentes tipos. Su tamaño es ligeramente inferior a 1 cm.

Excrementos de gazapo o conejo joven. Su tamaño es menor que los del adulto, aun cuando conservan la misma forma esférica.

Excavadura de conejo.