archivo de audio goear

Posted in jazz on 27 septiembre, 2010 by luciavergel

http://www.goear.com/files/external.swf?file=794af35
SOLA CON MI SOLEDAD MARISELA
He quedado de repente,
apsolutamente, cubierta de llanto,
que tal vente a la deriba,
sin nada de nada,
fuera de tu vida,
y ni siquiera me enteras
de tu acelerara y brusca decision.

Nada, no me dices nada,
tan solo querida esto es un adios,
no seas cruel amor, no hieras a mi vida,
pero tu ya no me escuchas,
das vuelta a la cara y me dejas asi.

Sola con mi soledad,
sola sin tu compañia,
sola por quererte tanto,
por creer a ciegas que tu me querias,
sola con mi soledad,
sola con mis sentimientos,
pero apesar de todo
te sigo esperando, te sigo queriendo,
queriendote, a pesar de tu olvido,
por que a un que un rayo me perta tu..
..seguiras siendo mio.

Nada, no me dices nada,
tan solo querida esto es un adios,
no seas cruel amor, no hieras a mi vida,
pero tu ya no me escuchas,
das vuelta a la cara y me dejas asi.

Sola con mi soledad,
sola sin tu compañia,
sola por quererte tanto,
por creer a ciegas que tu me querias,
sola con mi soledad,
sola con mis sentimientos,
pero apesar de todo
te sigo esperando, te sigo queriendo…

Servicio web

Posted in jazz on 17 septiembre, 2010 by luciavergel

Un servicio web (en inglés, Web service) es un conjunto de protocolos y estándares que sirven para intercambiar datos entre aplicaciones. Distintas aplicaciones de software desarrolladas en lenguajes de programación diferentes, y ejecutadas sobre cualquier plataforma, pueden utilizar los servicios web para intercambiar datos en redes de ordenadores como Internet. La interoperabilidad se consigue mediante la adopción de estándares abiertos. Las organizaciones OASIS y W3C son los comités responsables de la arquitectura y reglamentación de los servicios Web. Para mejorar la interoperabilidad entre distintas implementaciones de servicios Web se ha creado el organismo WS-I, encargado de desarrollar diversos perfiles para definir de manera más exhaustiva estos estándares.

Estándares empleados
Web Services Protocol Stack: Así se denomina al conjunto de servicios y protocolos de los servicios Web.
XML (Extensible Markup Language): Es el formato estándar para los datos que se vayan a intercambiar.
SOAP (Simple Object Access Protocol) o XML-RPC (XML Remote Procedure Call): Protocolos sobre los que se establece el intercambio.
Otros protocolos: los datos en XML también pueden enviarse de una aplicación a otra mediante protocolos normales como HTTP (Hypertext Transfer Protocol), FTP (File Transfer Protocol), o SMTP (Simple Mail Transfer Protocol).
WSDL (Web Services Description Language): Es el lenguaje de la interfaz pública para los servicios Web. Es una descripción basada en XML de los requisitos funcionales necesarios para establecer una comunicación con los servicios Web.
UDDI (Universal Description, Discovery and Integration): Protocolo para publicar la información de los servicios Web. Permite comprobar qué servicios web están disponibles.
WS-Security (Web Service Security): Protocolo de seguridad aceptado como estándar por OASIS (Organization for the Advancement of Structured Information Standards). Garantiza la autenticación de los actores y la confidencialidad de los mensajes enviados.
[editar] Ventajas de los servicios web
Aportan interoperabilidad entre aplicaciones de software independientemente de sus propiedades o de las plataformas sobre las que se instalen.
Los servicios Web fomentan los estándares y protocolos basados en texto, que hacen más fácil acceder a su contenido y entender su funcionamiento.
Al apoyarse en HTTP, los servicios Web pueden aprovecharse de los sistemas de seguridad firewall sin necesidad de cambiar las reglas de filtrado.
Permiten que servicios y software de diferentes compañías ubicadas en diferentes lugares geográficos puedan ser combinados fácilmente para proveer servicios integrados.
Permiten la interoperabilidad entre plataformas de distintos fabricantes por medio de protocolos estándar y abiertos. Las especificaciones son gestionadas por una organización abierta, la W3C, por tanto no hay secretismos por intereses particulares de fabricantes concretos y se garantiza la plena interoperabilidad entre aplicaciones.
[editar] Inconvenientes de los servicios Web
Para realizar transacciones no pueden compararse en su grado de desarrollo con los estándares abiertos de computación distribuida como CORBA (Common Object Request Broker Architecture).
Su rendimiento es bajo si se compara con otros modelos de computación distribuida, tales como RMI (Remote Method Invocation), CORBA o DCOM (Distributed Component Object Model). Es uno de los inconvenientes derivados de adoptar un formato basado en texto. Y es que entre los objetivos de XML no se encuentra la concisión ni la eficacia de procesamiento.
Al apoyarse en HTTP, pueden esquivar medidas de seguridad basadas en firewall cuyas reglas tratan de bloquear o auditar la comunicación entre programas a ambos lados de la barrera.
[editar] Razones para crear servicios Web
La principal razón para usar servicios Web es que se basan en HTTP sobre TCP (Transmission Control Protocol) en el puerto 80. Dado que las organizaciones protegen sus redes mediante firewalls -que filtran y bloquean gran parte del tráfico de Internet-, cierran casi todos los puertos TCP salvo el 80, que es, precisamente, el que usan los navegadores. Los servicios Web utilizan este puerto, por la simple razón de que no resultan bloqueados.

Otra razón es que, antes de que existiera SOAP, no había buenas interfaces para acceder a las funcionalidades de otros ordenadores en red. Las que había eran ad hoc y poco conocidas, tales como EDI (Electronic Data Interchange), RPC (Remote Procedure Call), u otras APIs.

Una tercera razón por la que los servicios Web son muy prácticos es que pueden aportar gran independencia entre la aplicación que usa el servicio Web y el propio servicio. De esta forma, los cambios a lo largo del tiempo en uno no deben afectar al otro. Esta flexibilidad será cada vez más importante, dado que la tendencia a construir grandes aplicaciones a partir de componentes distribuidos más pequeños es cada día más utilizada.

Se espera que para los próximos años mejoren la calidad y cantidad de servicios ofrecidos basados en los nuevos estándares.
Plataformas
Servidores de aplicaciones para servicios Web:

JBoss servidor de aplicaciones J2EE Open Source de Red Hat inc.
Oracle Fusion Middleware
IBM Lotus Domino a partir de la versión 7.0
Axis y el servidor Jakarta Tomcat (de Apache)
ColdFusion MX de [[Macromedia]httpd ]
Java Web Services Development Pack (JWSDP) de Sun Microsystems (basado en Jakarta Tomcat)
JOnAS (parte de ObjectWeb una iniciativa de código abierto)
Microsoft .NET
Novell exteNd (basado en la plataforma J2EE)
WebLogic
WebSphere
JAX-WS con GlassFish
Zope es un servidor de aplicaciones Web orientado a objetos desarrollado en el lenguaje de programación Python
VERASTREAM de AttachmateWRQ para modernizar o integrar aplicaciones host IBM y VT

HTML

Posted in jazz on 17 septiembre, 2010 by luciavergel

HTML, siglas de HyperText Markup Language (Lenguaje de Marcado de Hipertexto), es el lenguaje de marcado predominante para la elaboración de páginas web. Es usado para describir la estructura y el contenido en forma de texto, así como para complementar el texto con objetos tales como imágenes. HTML se escribe en forma de “etiquetas”, rodeadas por corchetes angulares (). HTML también puede describir, hasta un cierto punto, la apariencia de un documento, y puede incluir un script (por ejemplo Javascript), el cual puede afectar el comportamiento de navegadores web y otros procesadores de HTML.

HTML también es usado para referirse al contenido del tipo de MIME text/html o todavía más ampliamente como un término genérico para el HTML, ya sea en forma descendida del XML (como XHTML 1.0 y posteriores) o en forma descendida directamente de SGML (como HTML 4.01 y anteriores).
Historia de HTML
Primeras especificaciones
La primera descripción de HTML disponible públicamente fue un documento llamado HTML Tags (Etiquetas HTML), publicado por primera vez en Internet por Tim Berners-Lee en 1991.[1] [2] Describe 22 elementos comprendiendo el diseño inicial y relativamente simple de HTML. Trece de estos elementos todavía existen en HTML 4.[3]

Berners-Lee consideraba a HTML una ampliación de SGML, pero no fue formalmente reconocida como tal hasta la publicación de mediados de 1993, por la IETF, de una primera proposición para una especificación de HTML: el boceto Hypertext Markup Language de Berners-Lee y Dan Connolly, el cual incluía una Definición de Tipo de Documento SGML para definir la gramática.[4] El boceto expiró luego de seis meses, pero fue notable por su reconocimiento de la etiqueta propia del navegador Mosaic usada para insertar imágenes sin cambio de línea, reflejando la filosofía del IETF de basar estándares en prototipos con éxito. [5] Similarmente, el boceto competidor de Dave Raggett HTML+ (Hypertext Markup Format) (Formato de marcaje de hipertexto), de 1993 tardío, sugería, estandarizar características ya implementadas tales como tablas.[6]

Marcado HTML
HTML consta de varios componentes vitales, incluyendo elementos y sus atributos, tipos de data, y la declaración de tipo de documento.

Elementos
Los elementos son la estructura básica de HTML. Los elementos tienen dos propiedades básicas: atributos y contenido. Cada atributo y contenido tiene ciertas restricciones para que se considere válido al documento HTML. Un elemento generalmente tiene una etiqueta de inicio (p.ej. ) y una etiqueta de cierre (p.ej. ). Los atributos del elemento están contenidos en la etiqueta de inicio y el contenido está ubicado entre las dos etiquetas (p.ej. Contenido). Algunos elementos, tales como
, no tienen contenido ni llevan una etiqueta de cierre. Debajo se listan varios tipos de elementos de marcado usados en HTML.

Estructura general de una línea de código en el lenguaje de etiquetas HTML.El marcado estructural describe el propósito del texto. Por ejemplo,

Golf

establece a “Golf” como un encabezamiento de segundo nivel, el cual se mostraría en un navegador de una manera similar al título “Marcado HTML” al principio de esta sección. El marcado estructural no define cómo se verá el elemento, pero la mayoría de los navegadores web han estandarizado el formato de los elementos. Un formato específico puede ser aplicado al texto por medio de hojas de estilo en cascada.

El marcado presentacional describe la apariencia del texto, sin importar su función. Por ejemplo, negrita indica que los navegadores web visuales deben mostrar el texto en negrita, pero no indica qué deben hacer los navegadores web que muestran el contenido de otra manera (por ejemplo, los que leen el texto en voz alta). En el caso de negrita e itálica, existen elementos que se ven de la misma manera pero tienen una naturaleza más semántica: enfásis fuerte y énfasis. Es fácil ver cómo un lector de pantalla debería interpretar estos dos elementos. Sin embargo, son equivalentes a sus correspondientes elementos presentacionales: un lector de pantalla no debería decir más fuerte el nombre de un libro, aunque éste esté en itálicas en una pantalla. La mayoría del marcado presentacional ha sido desechada con HTML 4.0, en favor de Hojas de estilo en cascada.

El marcado hipertextual se utiliza para enlazar partes del documento con otros documentos o con otras partes del mismo documento. Para crear un enlace es necesario utilizar la etiqueta de ancla junto con el atributo href, que establecerá la dirección URL a la que apunta el enlace. Por ejemplo, un enlace a la Wikipedia sería de la forma Wikipedia. También se pueden crear enlaces sobre otros objetos, tales como imágenes .

Atributos
La mayoría de los atributos de un elemento son pares nombre-valor, separados por un signo de igual “=” y escritos en la etiqueta de comienzo de un elemento, después del nombre de éste. El valor puede estar rodeado por comillas dobles o simples, aunque ciertos tipos de valores pueden estar sin comillas en HTML (pero no en XHTML).[7] [8] De todas maneras, dejar los valores sin comillas es considerado poco seguro.[9] En contraste con los pares nombre-elemento, hay algunos atributos que afectan al elemento simplemente por su presencia[10] (tal como el atributo ismap para el elemento img).[11]

Códigos HTML básicos
: define el inicio del documento HTML, le indica al navegador que lo que viene a continuación debe ser interpretado como código HTML. Esto es así de facto, ya que en teoría lo que define el tipo de documento es el DOCTYPE, significando la palabra justo tras DOCTYPE el tag de raíz, por ejemplo:

: incrusta un script en una web, o se llama a uno mediante src=”url del script” Se recomienda incluir el tipo MIME en el atributo type, en el caso de JavaScript text/javascript.
: define la cabecera del documento HTML, esta cabecera suele contener información sobre el documento que no se muestra directamente al usuario. Como por ejemplo el título de la ventana del navegador. Dentro de la cabecera podemos encontrar:

Un ejemplo de código HTML con coloreado de sintaxis.: define el título de la página. Por lo general, el título aparece en la barra de título encima de la ventana<br /> : para vincular el sitio a hojas de estilo o iconos Por ejemplo:<br /> : para colocar el estilo interno de la página; ya sea usando CSS, u otros lenguajes similares. No es necesario colocarlo si se va a vincular a un archivo externo usando la etiqueta<br /> : para metadatos como la autoría o la licencia, incluso para indicar parámetros http (mediante http-equiv=””) cuando no se pueden modificar por no estar disponible la configuración o por dificultades con server-side scripting.<br /> : define el contenido principal o cuerpo del documento. Esta es la parte del documento html que se muestra en el navegador; dentro de esta etiqueta pueden definirse propiedades comunes a toda la página, como color de fondo y márgenes. Dentro del cuerpo podemos encontrar numerosas etiquetas. A continuación se indican algunas a modo de ejemplo:</p> <h1> a<br /> <h6>: encabezados o títulos del documento con diferente relevancia.</p> <table>: define una tabla</p> <tr>: fila de una tabla</p> <td>: columna de de una tabla<br /> <a>: Hipervínculo o enlace, dentro o fuera del sitio web. Debe definirse el parámetro de pasada por medio del atributo href. Por ejemplo: </a><a href="http://www.wikipedia.org">Wikipedia</a> se representa como Wikipedia)</p> <div>: división de la página. Se recomienda, junto con css, en vez de<br /> <table> cuando se desea alinear contenido<br /> <img />: imagen. Requiere del atributo src, que indica la ruta en la que se encuentra la imagen. Por ejemplo: <img src="./imagenes/mifoto.jpg" />. Es conveniente, por accesibilidad, poner un atributo alt=”texto alternativo”.</p> <li> <ol> <ul>: Etiquetas para listas.<br /> <b>: texto en negrita (Etiqueta desaprobada. Se recomienda usar la etiqueta <strong>)<br /> <i>: texto en cursiva (Etiqueta desaprobada. Se recomienda usar la etiqueta <em>)<br /> <s>: texto tachado (Etiqueta desaprobada. Se recomienda usar la etiqueta <del>)<br /> <u>: texto subrayado<br /> La mayoría de etiquetas deben cerrarse como se abren, pero con una barra (“/”) tal como se muestra en los siguientes ejemplos:</p> <table> <tr> <td>Contenido de una celda</td> </tr> </table> <p>Código de un [[script]] integrado en la página.</p> <p>Nociones básicas de HTML<br /> El lenguaje HTML puede ser creado y editado con cualquier editor de textos básico, como puede ser Gedit en Linux, el Bloc de Notas de Windows, o cualquier otro editor que admita texto sin formato como GNU Emacs, Microsoft Wordpad, TextPad, Vim, Notepad++, entre otros.</p> <p>Existen además, otros editores para la realización de sitios Web con características WYSIWYG (What You See Is What You Get, o en español: “lo que ves es lo que obtienes”). Estos editores permiten ver el resultado de lo que se está editando en tiempo real, a medida que se va desarrollando el documento. Ahora bien, esto no significa una manera distinta de realizar sitios web, sino que una forma un tanto más simple ya que estos programas, además de tener la opción de trabajar con la vista preliminar, tiene su propia sección HTML la cual va generando todo el código a medida que se va trabajando. Algunos ejemplos de editores WYSIWIG son Macromedia Dreamweaver, o Microsoft FrontPage.</p> <p>Combinar estos dos métodos resulta muy interesante, ya que de alguna manera se ayudan entre sí. Por ejemplo; si se edita todo en HTML y de pronto se olvida algún código o etiqueta, simplemente me dirijo al editor visual o WYSIWYG y se continúa ahí la edición, o viceversa, ya que hay casos en que sale más rápido y fácil escribir directamente el código de alguna característica que queramos adherirle al sitio, que buscar la opción en el programa mismo.</p> <p>Existe otro tipo de editores HTML llamados WYSIWYM (Lo que ves es lo que quieres decir) que dan más importancia al contenido y al significado que a la apariencia visual. Entre los objetivos que tienen estos editores es la separación del contenido y la presentación, fundamental en el diseño Web.</p> <p>HTML utiliza etiquetas o marcas, que consisten en breves instrucciones de comienzo y final, mediante las cuales se determina la forma en la que debe aparecer en su navegador el texto, así como también las imágenes y los demás elementos, en la pantalla del ordenador.</p> <p>Toda etiqueta se identifica porque está encerrada entre los signos menor que y mayor que (), y algunas tienen atributos que pueden tomar algún valor. En general las etiquetas se aplicarán de dos formas especiales:</p> <p>Se abren y se cierran, como por ejemplo: <b>negrita</b> que se vería en su navegador web como negrita.<br /> No pueden abrirse y cerrarse, como<br /> <hr /> que se vería en su navegador web como una línea horizontal.<br /> Otras que pueden abrirse y cerrarse, como por ejemplo <p>.<br /> Las etiquetas básicas o mínimas son:</p> <p>ejemplo</p> <p>Saber más<br /> Seleccionando la opción Ver código fuente en el navegador, se puede ver realmente la información que está recibiendo éste y cómo la está interpretando. Por ejemplo: en Internet Explorer o en Firefox, simplemente hay que desplegar el menú Ver y luego elegir Código fuente. De esta forma, se abrirá el editor de texto configurado como predeterminado en el sistema con el código fuente de la página que se esté viendo en ese momento en el explorador. Otra forma más rápida consiste en hacer clic con el botón derecho del ratón en cualquier punto del área donde el navegador muestra la página web y elegir Ver código fuente.</p> <p>Para el navegador Firefox existe el plugin FireBug, un depurador que permite entre otras cosas visualizar el código HTML de la página que estamos visualizando de forma dinámica, y que incluso resalta el trozo de código por el que está pasando el ratón en cada momento, por lo que es una herramienta muy útil para aprender diversos conceptos de este lenguaje.</p> <p>Historia del estándar<br /> En 1989 existían dos técnicas que permitían vincular documentos electrónicos, por un lado los hipervínculos (links) y por otro lado un poderoso lenguaje de etiquetas denominado SGML. Por entonces, Tim Berners-Lee da a conocer a la prensa que estaba trabajando en un sistema que permitirá acceder a ficheros en línea, funcionando sobre redes de computadoras o máquinas electrónicas basadas en el protocolo TCP/IP.</p> <p>A principios de 1990, Tim Berners-Lee define por fin el HTML como un subconjunto del conocido SGML y crea algo más valioso aún, el World Wide Web. En 1991, Tim Berners-Lee crea el primer navegador web, que funcionaría en modo texto y sobre un sistema operativo UNIX.</p> <p>Los trabajos para crear un sucesor del HTML, denominado HTML +, comenzaron a finales de 1993. HTML+ se diseñó originalmente para ser un superconjunto del HTML que permitiera evolucionar gradualmente desde el formato HTML anterior. A la primera especificación formal de HTML+ se le dio, por lo tanto, el número de versión 2 para distinguirla de las propuestas no oficiales previas. Los trabajos sobre HTML+ continuaron, pero nunca se convirtió en un estándar, a pesar de ser la base formalmente más parecida al aspecto compositivo de las especificaciones actuales.</p> <p>El borrador del estándar HTML 3.0 fue propuesto por el recién formado W3C en marzo de 1995. Con él se introdujeron muchas nuevas capacidades, tales como facilidades para crear tablas, hacer que el texto fluyese alrededor de las figuras y mostrar elementos matemáticos complejos. Aunque se diseñó para ser compatible con HTML 2.0, era demasiado complejo para ser implementado con la tecnología de la época y, cuando el borrador del estándar expiró en septiembre de 1995, se abandonó debido a la carencia de apoyos de los fabricantes de navegadores web. El HTML 3.1 nunca llegó a ser propuesto oficialmente, y el estándar siguiente fue el HTML 3.2, que abandonaba la mayoría de las nuevas características del HTML 3.0 y, a cambio, adoptaba muchos elementos desarrollados inicialmente por los navegadores web Netscape y Mosaic. La posibilidad de trabajar con fórmulas matemáticas que se había propuesto en el HTML 3.0 pasó a quedar integrada en un estándar distinto llamado MathML.</p> <p>El HTML 4.0 también adoptó muchos elementos específicos desarrollados inicialmente para un navegador web concreto, pero al mismo tiempo comenzó a limpiar el HTML señalando algunos de ellos como «desaprobados» o deprecated en inglés.</p> <p>Accesibilidad Web<br /> Artículo principal: accesibilidad web<br /> El diseño en HTML aparte de cumplir con las especificaciones propias del lenguaje debe respetar unos criterios de accesibilidad web, siguiendo unas pautas, o las normativas y leyes vigentes en los países donde se regule dicho concepto. Se encuentra disponible y desarrollado por el W3C a través de las Pautas de Accesibilidad al Contenido Web 1.0 WCAG (actualizadas recientemente con la especificación 2.0[12] ), aunque muchos países tienen especificaciones propias, como es el caso de España con la Norma UNE 139803.[13]</p> <p>Entidades HTML<br /> Los caracteres especiales como signo de puntuación, letras con tilde o diéresis, o símbolos del lenguaje; se deben convertir en entidad HTML para mostrarse en un navegador. La siguiente es una lista de caracteres españoles y su correspondiente entidad HTML:</p> <p>Carácter Entidad HTML Carácter Entidad HTML<br /> á á Á Á<br /> é é É É<br /> í í Í Í<br /> ó ó Ó Ó<br /> ú ú Ú Ú<br /> ü ü Ü Ü<br /> ñ ñ Ñ Ñ<br /> ¡ ¡ ¿ ¿ </u></del></s></em></i></strong></b></ul> </ol> </li> </table> </div> </td> </tr> </table> </h6> </h1> <p>

BLOGER

Posted in jazz on 17 septiembre, 2010 by luciavergel

Por blogger, o bloguero, también se entiende alguien que escribe en una bitácora en línea. Este artículo trata sobre el servicio Blogger.com.
Blogger

Blogger es un servicio creado por Pyra Labs para crear y publicar una bitácora en línea. El usuario no tiene que escribir ningún código o instalar programas de servidor o de scripting. Blogger acepta para el alojamiento de las bitácoras su propio servidor (Blogspot) o el servidor que el usuario especifique (FTP o SFTP)

[editar] Historia de Blogger
Lanzado en agosto de 1999, es una de las primeras herramientas de publicación de bitácora en líneas y es acreditado por haber ayudado a popularizar el uso de formularios. Más específicamente, en vez de escribir a mano el HTML y frecuentemente subir las nuevas publicaciones, el usuario puede publicar a su bitácora en línea llenando un formulario en el sitio web de Blogger. Esto puede ser realizado por cualquier navegador y los resultados son inmediatos.

En el 2003, Pyra Labs fue adquirido por la empresa Google; por ende, también Blogger. Google consiguió los recursos que Pyra requería. Más adelante, las “características premium”, que eran pagas, fueron habilitadas para el público en general gracias a la ayuda de Google.

En el 2004, Google compró Picasa y su utilidad de intercambio de fotografías Hello. Esto permitió a los usuarios de Blogger poner fotografías en sus bitácoras. Así el photoblogging (o la posibilidad de publicar fotografías en las bitácoras) se hacía realidad en Blogger con la integración de Hello.

El 9 de mayo de 2004, Blogger fue relanzado, añadiendo nuevas plantillas de diseño basadas en CSS, archivaje individual de publicaciones, comentarios y publicación por correo electrónico. Después Google lanzaría una herramienta llamada BlogThis! en la barra de búsqueda Google. La herramienta BlogThis! permite abrir una nueva ventana con un formulario de publicación que permite al usuario publicar sin necesidad de visitar la página principal de Blogger e ingresar un usuario.

A finales de 2006, con el nuevo Blogger Beta, se hizo posible lo que tanta falta hacía en Blogger: el poder publicar artículos por categorías o etiquetas, (labels) como son llamados en Blogger, así como la posibilidad de poner bitácoras de acceso restringido o privadas para solo unos cuantos, entre otras funciones.

Inicialmente el servicio de Blogger Beta no permitía hacer los cambios a la plantilla modificando el código HTML. Tiempo después se migraron las cuentas anteriores de Blogger al nuevo Blogger Beta sin que signifique ninguna molestia a sus usuarios.

La actualización al nuevo Blogger requiere el registro de una cuenta de Google e incluye, entre otras mejoras, el servicio de etiquetado de artículos y una mejora en la interfaz de edición y publicación de artículos. La nueva versión no modifica en absoluto la apariencia de las bitácoras en línea creados en la versión antigua, salvo algunos pequeños problemas con acentos y caracteres especiales como la letra ñ. Una vez actualizado un blog, puede decidirse dar un paso más y actualizar la plantilla, con lo que se perderían las modificaciones realizadas al HTML. Por ello se recomienda hacer copia de seguridad de la plantilla (y todos los snippets que se hayan ido incluyendo) antes de asimilar el nuevo conjunto de plantillas.

WordPress

Posted in jazz on 17 septiembre, 2010 by luciavergel

WordPress es un sistema de gestión de contenido enfocado a la creación de blogs (sitios web periódicamente actualizados). Desarrollado en PHP y MySQL, bajo licencia GPL y código modificable, tiene como fundador a Matt Mullenweg. WordPress fue creado a partir del desaparecido b2/cafelog y se ha convertido junto a Movable Type en el CMS más popular de la blogosfera. Las causas de su enorme crecimiento son, entre otras, su licencia, su facilidad de uso y sus características como gestor de contenidos.

Otro motivo a considerar sobre su éxito y extensión, es la enorme comunidad de desarrolladores y diseñadores, que se encargan de desarrollarlo en general o crear plugins y temas para la comunidad, siendo usado en septiembre de 2009 por 202 millones de usuarios.
Historia
[editar] Nombre y versiones
El desarrollador principal Matt Mullenweg eligió el nombre WordPress por sugerencia de su amiga Christine Selleck. Las versiones lanzadas de WordPress tienen como nombre en clave músicos de jazz como por ejemplo la versión 1.0, Mingus. La versión 1.5, que fue lanzada a mediados de febrero de 2005 tiene como nombre en clave “Strayhorn” (Billy Strayhorn) y ofreció una gama amplia de nuevas características como por ejemplo el uso de páginas estáticas.

[editar] La empresa
Automattic, la empresa detrás de WordPress, tiene asimismo un servicio de alojamiento de blogs gratuito basado en su software llamado WordPress.com.

Facilita la administración de páginas fuera del orden cronológico “normal” del weblog y ha sido el primer paso para transformarse de un software básico de administración de blogs a un completo sistema de administración de contenidos.

Otra funcionalidad es la del sistema de creación de plantillas (“Themes”), las cuales permiten al usuario activar o desactivar una u otra según deseen para sus sitios. WordPress también ha sido equipado “de serie” con una nueva plantilla por defecto (con nombre en clave Kubrick denominada como “Default”) además de la tradicional e inicial “Classic”, sencilla y válida con los estándares del W3C.

[editar] Desarrolladores
El desarrollo de WordPress es dirigido por Ryan Boren y Matt Mullenweg. Mullenweg y Mike Little fueron los fundadores del proyecto. Los desarrolladores de WordPress son:

Dougal Campbell
Mark Jaquith
Donncha Ó Caoimh
Andy Skelton
Michel Valdrighi
Peter Westwood
Aunque gran parte del proyecto ha sido desarrollado por la comunidad alrededor de WordPress, aún está asociado a Automattic, la empresa donde algunos de los principales contribuyentes de WordPress son empleados.[2]

WordPress es también en parte desarrollado por su comunidad, entre los que se cuentan los testers, un grupo de personas que dedican tiempo y esfuerzo voluntariamente para probar cada lanzamiento. Ellos tienen acceso a las versiones aún en desarrollo (conocidas como nightly builds), versiones Beta y versiones candidatas (Release Candidates). Actualizando a estas versiones, ellos pueden encontrar errores y reportarlos a una lista de correo especial. o al sistema de seguimiento de errores basado en Trac.

[editar] Características principales
WordPress nació del deseo de construir un sistema de publicación personal, elegante y con una buena arquitectura (“Code is poetry”). Basado en PHP, MySQL y licenciado bajo GPL, WordPress pone especial atención a la estética, estándares web, y usabilidad.[3]

En principio, está configurado para usar una bitácora o weblog por sitio o instalación, pero también es posible, sin “hacks” o añadidos, tener varios blogs -varias instalaciones en realidad- con varias o una única base de datos.[4]

Además, existen versiones similares, paralelas o “hackeadas” de WordPress que permiten esta funcionalidad, una de las más conocidas, extendida y de más soporte es WordPress MU:
Debido a que WordPress no permitía esta funcionalidad, hay disponible una versión adaptada y similar de los mismos desarrolladores llamada WordPress MU (μ), que permite la instalación de múltiples blogs.

Archivo wp-config 2.5.1:

// You can have multiple installations in one database if you give each a unique prefix
$table_prefix = ‘wp_'; // Only numbers, letters, and underscores please!
[editar] Estructura
Wordpress, en principio, es un sistema de publicación web basado en entradas ordenadas por fecha, entre otras muchas posibilidades además de páginas estáticas.
La estructura y diseño visual del sitio depende del sistema de plantillas.
La filosofía de WordPress apuesta decididamente por la elegancia, la sencillez y las recomendaciones del W3C pero depende siempre de la plantilla a usar. “Classic”, por ejemplo es una plantilla que viene “de serie” y que es válido como (X)HTML Transicional y CSS.
Separa el contenido y el diseño en XHTML y CSS, aunque, como se ha dicho, depende de la plantilla que se esté usando. No obstante, el código que se intenta generar en las entradas (“posts”) apuesta por esta característica forzando -si así se elige- un marcado correcto.
La gestión y ejecución corre a cargo del sistema de administración con los plugins y los widgets que usan las plantillas.
[editar] Funcionalidades
Fácil instalación, actualización y personalización.
Posibilidad de actualización automática del sistema implementada en la versión 2.7.
Múltiples autores o usuarios, junto con sus roles o perfiles que establecen distintos niveles de permisos desde la versión 2.0).
Múltiples blogs o bitácoras (desde la versión 1.6).
Capacidad de crear páginas estáticas (a partir de la versión 1.5).
Permite ordenar artículos y páginas estáticas en categorías, subcategorías y etiquetas (“tags”).
Cuatro estados para una entrada (“post”): Publicado, Borrador, Esperando Revisión (nuevo en WordPress 2.3) y Privado (sólo usuarios registrados), además de uno adicional: Protegido con contraseña.
Editor WYSIWYG “What You See Is What You Get” en inglés, “lo que ves es lo que obtienes” (desde la versión 2.0).
Publicación mediante email.
Importación desde Blogger, Blogware, Dotclear, Greymatter, Livejournal, Movable Type y Typepad, Textpattern y desde cualquier fuente RSS. Se está trabajando para poder importar desde pMachine y Nucleus además de la importación a través de scripts o directamente de base de datos.
Guardado automático temporizado del artículo como Borrador (A partir de la versión 2.2).
Permite comentarios y herramientas de comunicación entre blogs (Trackback, Pingback, etc).
Permite “permalinks” (enlaces permanentes y fáciles de recordar) mediante mod_rewrite.
Distribución de los artículos mediante RDF, RSS 0.92, RSS 2.0 y Atom 1.0.
Distribución de las discusiones (mediante RSS 2.0 y ATOM 1.0).
Gestión y distribución de enlaces.
Subida y gestión de adjuntos y archivos multimedia.
Admite “Plugins” (versión 1.6).
Admite plantillas y “Widgets” para éstas.
Búsqueda integrada.
Búsqueda en entradas y páginas estáticas y Widget de casa para búsqueda integrada de google desde la versión 2.5.[5]
Integración:
bbPress, sistema de foros de los mismos creadores, se integra automáticamente con WordPress.
Integración con el foro Vanilla de Lussumo factible, al menos hasta la versión 2.2 no inclusive.
[editar] Multiblogging
WordPress soporta un blog por instalación, aunque se pueden utilizar múltiples copias en directorios distintos si se utilizan tablas de bases de datos separadas.

WordPress MU (también conocido como WPMU) es una derivación de WordPress creada para permitir la existencia de varios blogs en una sola instalación. WordPress MU hace posible para cualquier con un sitio web que desee alojar su propia comunidad de blogs, controlar y moderar todos los blogs desde un solo entorno de administración. WordPress MU añade ocho nuevas tablas de datos para cada blog respecto a WordPress. Es utilizado en el servicio de alojamiento de blogs gratuito WordPress.com, además de otras organizaciones como el diario Le Monde, la Universidad de Harvard y Edublogs.

Lyceum es otra versión empresarial de WordPress. A diferencia de WordPress MU, Lyceum almacena toda la información en un conjunto de tablas de base de datos. Algunas comunidades destacadas que usan Lyceum son TeachFor.Us[6] (Teach for America teacher’s blogs), BodyBlogs y Hopkins Blogs.

En 2008 Andy Peating se unió a Automattic para continuar su trabajo en BuddyPress, una extensión de WPMU que añadirá características de comunidad a WordPress.[7]

[editar] Plantillas
Las plantillas (themes) de WordPress son plantillas de diseño que sirven para establecer la apariencia y estructura de tu blog.

Hay una gran comunidad oficial, tanto profesional como de usuarios, dedicada al diseño de estas plantillas que se suelen listar en el sitio de WordPress una vez han sido comprobadas y aprobadas oficialmente -ver lista de Enlaces externos-.
Aunque la filosofía de WordPress apuesta por un marcado válido según las directrices del W3C, las posibilidades de este sistema, tanto a nivel de diseño, estructura o gestión, y la flexibilidad del sistema de plantilla y widgets en concreto, son enormes y prácticamente permiten tener desde un simple blog hasta un CMS personalizado.[8] [9]

[editar] Widgets
Wordpress incorpora un sistema de Widgets para sus plantillas desde la versión 2.2 que ofrece numerosas posibilidades y flexibilidad para el diseño y estructura de sus blogs. Si bien son sumamente útiles, no todos las plantillas lo soportan.

[editar] Plugins
Hay una ingente cantidad de plugins que potencian el uso de WordPress más allá de una simple bitácora y que lo hacen un sistema flexible y prácticamente de propósito general. Los plugins de WordPress se incorporaron en la versión 1.6.[10]

[editar] Versiones
[editar] Iniciales
1.0 La primera versión final de WordPress se lanzó oficialmente el 3 de enero de 2004, se llamó denominada “Miles” por el músico de jazz Miles Davis.
[editar] Rama 2.0
Desde el lanzamiento de WordPress 2.1, se empezó a usar la versión 4.1 de MySQL mientras que WordPress 2.0 usa MySQL 3. Con las nuevas versiones 2.x, el equipo de WordPress analizó los servicios de “hosting” vigentes y concretaron que todavía muchos de estos servicios no soportaban MySQL 4. Así, se decidió seguir dando soporte de WordPress 2.0 (actualizaciones de seguridad) hasta el 2010, donde se esperaban que todos los servicios de hosting empiecen a ofrecer MySQL 4 y 5.

Además, está la obsolescencia de PHP4 para 2008 lo que provoca que las nuevas versiones de WordPress estén construidas con base en la versión 5, aunque manteniendo la compatibilidad inversa -y el soporte de la rama 2.0- en iguales circunstancias que con MySQL.

2.0 (Duke), la versión de WordPress, denominada “Duke” por el músico Duke Ellington y lanzada el 31 de diciembre de 2005, fue -después de la versión 2.5- realmente el desarrollo más innovador y con más cambios, o al menos de más impacto, hasta esa fecha. Incluía el editor WYSIWIG “TinyMCE”, la subida de adjuntos e imágenes, gestión de roles o perfiles de usuarios, caché persistente de contenidos, soporte de diferentes versiones para la base de datos y backup de ésta, el plugin antispam Akismet -también de Automattic-, previsualización de entradas y algunas funciones AJAX entre otras.[11]

2.0.12: La rama 2.0.x adquiere Soporte oficial, esta versión incluye arreglos de seguridad, mejoras y estética para la rama 2.0.
2.2 (Getz),[12] versión de WordPress llamada “Getz” en honor al saxofonista Stan Getz. Esta versión fue sacada a la luz el día 16 de mayo del 2007 e incluye 200 actualizaciones de “bugs”. Su funcionalidad más notable añadida es la integración de Widgets.
2.3 (Dexter),[13] la versión llamada “Dexter”, en honor al saxofonista Dexter Gordon lanzada oficialmente el 24 de septiembre de 2007..
2.4, versión cancelada en enero de 2008 para pasar a la versión 2.5. Se canceló por diversos motivos pero principalmente por los fallos y retraso en el demasiado rápido desarrollo del nuevo “tablero” (dashboard)[14] y que fue reescrito para la versión 2.5.
2.5 (Brecker),[15] llamada “Brecker” en honor al saxofonista Michael Brecker y que salió oficialmente el 29 de marzo de 2008.
Ésta versión fue un nuevo punto de inflexión en el desarrollo de WordPress con especial énfasis en la mejora del “tablero” (administración) de WordPress.

Se mejoró el aspecto visual y la usabilidad de la administración, en especial añadiendo funciones AJAX que, en general, mejoraban todo el tablero y en concreto: la gestión de adjuntos y archivos multimedia, de etiquetas, categorías y enlaces, guardado automático de borradores por tiempo, sistema automático de actualización de plugins, mejora del sistema de widgets para plantillas…
También fue importante el añadido del API para “Shortcode”[16] que permite ejecutar código en las entradas (“posts”) sin el uso directo de incrustación PHP, soporte para el servicio Gravatar en comentarios y generación automática de galerías de imágenes sobre los adjuntos.

2.5.1,[17] versión de mejora en seguridad y corrección de bugs lanzada el 25 de abril de 2008.
2.6 (Tyner),[18] llamada “Tyner” en honor al pianista de jazz McCoy Tyner y que es lanzada el 15 de julio de 2008.
La versión Tyner, introduce -según el blog de desarrollo- nuevas mejoras que potencian el uso de WordPress como CMS. Por ejemplo la gestión de revisiones y versiones de las entradas (diff) al estilo tradicional de las wikis, la posibilidad de sacar del árbol web directorios y archivos sensibles, soporte completo SSL, nuevas versiones de algunas de sus bibliotecas incluidas tales como jQuery y jQuery UI (1.5.1) o TinyMCE, mejora y añadido de plugins como “WordPress Video”, pre visualización de plantillas en administración, campos extra para perfiles de usuario (hasta ahora mediante plugins) o la posibilidad de establecer varias sub-categorías, entre otras nuevas funciones y, según la noticia oficial, correcciones sobre 194 errores o bugs.

2.6.2[19] Parche dirigido prácticamente en exclusiva a solucionar vulnerabilidades en el registro de usuarios, relacionadas con la generación aleatoria de contraseñas y el posible reseteo de las mismas para otros usuarios. Afecta por lo tanto sólo a sistemas con el registro de usuarios habilitado.

2.6.3[20] Parche dirigido para solucionar una vulnerabilidad de bajo riesgo en la biblioteca Snoopy, la cual se utiliza para mostrar los feeds en el Tablero.
2.7 (Clotrane) Llamada “Coltrane”, en honor al saxofonista John Coltrane, y que es lanzada el 10 de diciembre del 2008.[21] Esta versión incorpora, sobre todo, una nueva y muy esperada interfaz gráfica (1.0) con, también nuevas, mejoras AJAX, corrección de algunos fallos en la actual y, en especial, el cambio, tanto de ubicación como en relación a la usabilidad, del menú general superior a la parte izquierda de la pantalla. El nuevo menú posibilita el acceso a cualquier sección sin importar la profundidad de las sub-secciones gracias a la implementación de AJAX para hacerlo extensible.
Además, otro aspecto muy esperado, es la implementación del sistema de actualización automática para el sistema en general y que está basado, como en otras ocasiones ya se ha hecho, en el plugin independiente que ya había.
Se acaba de implementar el sistema de cookies sobre HTTP en exclusiva, el añadido de adjuntos sin la necesidad de guardarlos como entradas, explorador de archivos para plugins, edición en línea (no desde el tablero), la documentación PHPDoc estará disponible y se incluyen funcionalidades para «arrastrar y soltar» elementos en el Tablero, entre otros.
Como es habitual se corrige otro gran número de bugs en relación sobre todo a la interfaz y su funcionalidad respecto a navegadores, localizaciones, etc, así como sobre el código del sistema y validaciones varias.

2.7.1 Arregla más de 60 errores menores, y que es lanzada el 10 de febrero del 2009.
2.8 (Baker). Llamada “Baker” en honor al trompetista Chet Baker. La versión 2.8 incluye características enfocadas a usuarios avanzados, como el nuevo editor de código CodePress que, a diferencia del anterior editor, resalta el código dependiendo del lenguaje que se está usando. Otra nueva característica que se incluye es la instalación de plantillas vía web, similar a la instalación de plugins vía web insertada en la versión 2.7
2.8.6: Se liberó el 12 de noviembre de 2009.
2.9 (Carmen): Llamada “Carmen” en honor a la cantante y pianista Carmen McRae. Permite hacer ediciones en imágenes (Rotar, voltear, recortar), incrustación de multimedia (sin necesidad de código embed), así como un sistema de papelera para almacenar los comentarios y artículos eliminados, entre otros.[22]
2.9.1: Esta revisión soluciona los fallos encontrados en la versión 2.9.
2.9.2: Esta revisión soluciona un fallo de seguridad que permite obtener los resultado de la papelera. Además soluciona otros fallos encontrados en la versión 2.9.1
3.0: Fusiona WordPress con “WordPress Mu” para dar soporte multiblogging por defecto. Los menúes son editables y las actualizaciones de plugins pueden realizarse en masa.

[editar] WordPress para iPhone
El 11 de julio de 2008, con el lanzamiento de iTunes App Store por Apple Inc., WordPress también lanzó su primera aplicación nativa para iPhone y iPod Touch. La aplicación WordPress tiene todas las características que tiene el panel de administración de WordPress. Esta aplicación funciona para todos los blogs en WordPress.com y alojamientos propios en WordPress 2.5.1 o superior.[23]

[editar] Premios
En diciembre de 2009 ganó el premio al mejor CMS de Software Libre en el certamen de los Open Source CMS Awards compitiendo con otras 12.000 candidaturas, en este concurso ganó el segundo lugar como mejor CMS basado en PHP.

[editar] Temas visuales auspiciados
El 20 de julio de 2007, siguiendo a una discusión en el foro de ideas de WordPress y una publicación de Mark Ghosh en su blog Weblogs Tools Collection, Matt Mullenweng anunció que el directorio de temas oficial de WordPress en http://themes.wordpress.net no alojaría temas visuales conteniendo enlaces patrocinados. Aunque este movimiento fue criticado por los diseñadores y usuarios de temas patrocinados, fue aplaudido por algunos usuarios de WordPress que consideraban a dichos temas como spam. El directorio de temas de WordPress dejó de aceptar cualquier nuevo tema, incluyendo aquellos sin enlaces patrocinados, tiempo después de que el anuncio fue realizado.[24] Irónicamente, el cierre del sitio oficial y su consecuente falta de temas actualizados generó que varias personas descargaran temas de sitios no oficiales que insertaban sus propios enlaces de spam en todos los temas descargados desde dichos sitios.[25] [26]

El 18 de julio de 2008, un nuevo directorio de temas fue abierto en http://wordpress.org/extend/themes/. Fue diseñado con los mismos lineamientos que el directorio de plugins (extensiones).[27] Cualquier tema que sea colgado puede ser vetado en principio por un programa automatizado y luego por un humano.

[editar] Vulnerabilidades
BlogSecurity actualmente mantiene una lista de vulnerabilidades descubiertas en WordPress.[28]

En enero de 2007, muchos sitios reconocidos de blogs relacionados a optimización de búsquedas (Search engine optimization, SEO), así como muchos blogs comerciales de menor importacia y que utilizaban AdSense fueron objetivo de ataques con un exploit (pieza de código que explota una vulnerabilidad).[29]

Una vulnerabilidad en uno de los servidores web del proyecto WordPress permitió a un atacante introducir código con vulnerabilidades en forma de una puerta trasera (back door) para algunas descargas de WordPress 2.1.1. El lanzamiento de la versión 2.1.2 superó este incidente; una advertencia enviada a tiempo aconsejó a todos los usuarios actualizar inmediatamente.[30]

En mayo de 2007, un estudio reveló que el 98% de los blogs basados en WordPress eran vulnerables a ataques.[31]

En una entrevista en junio de 2007, Stefen Esser, el fundandor del PHP Security Response Team, criticó el registro de seguridad de WordPress, citando problemas con la arquitectura de la aplicación que hacían innecesariamente difícil escribir código que sea seguro frente a vulnerabilidades de inyección SQL, así como otros problemas.[32]

[editar] Críticas
Las críticas de WordPress se han centrado varias veces alrededor de su seguridad; muchos problemas de seguridad[33] [34] no han sido resueltos en el software, particularmente entre 2007 y 2008. De acuerdo a Secunia, WordPress a noviembre de 2008 tiene 7 advertencias de seguridad no solucionadas (de un total de 31), con una calificación máxima de “Menos Crítica”.[35]

LA INTERNET

Posted in jazz on 17 septiembre, 2010 by luciavergel

Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.

Uno de los servicios que más éxito ha tenido en Internet ha sido la World Wide Web (WWW, o “la Web”), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión.

Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia -telefonía (VoIP), televisión (IPTV)-, los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.

El género de la palabra Internet es ambiguo, según el Diccionario de la Real Academia Española.[3]
Historia
Artículo principal: Historia de Internet
En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida.

1969: La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959 (ver: Arpanet). El mito de que ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita:
A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de voz. Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las redes subyacentes. (Internet Society, A Brief History of the Internet)
1972: Se realizó la Primera demostración pública de ARPANET, una nueva red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma “transparente” para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de “Internet”, que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP.
1983: El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.
1986: La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico (“backbone”) de Internet.
1989: Con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones.
En el CERN de Ginebra, un grupo de físicos encabezado por Tim Berners-Lee creó el lenguaje HTML, basado en el SGML. En 1990 el mismo equipo construyó el primer cliente Web, llamado WorldWideWeb (WWW), y el primer servidor web.

2006: El 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en diez años, la cantidad de navegantes de la Red aumentará a 2.000 millones.[4]
Internet y sociedad
Este artículo o sección necesita referencias que aparezcan en una publicación acreditada, como revistas especializadas, monografías, prensa diaria o páginas de Internet fidedignas.
Puedes añadirlas así o avisar al autor principal del artículo en su página de discusión pegando: {{subst:Aviso referencias|Internet}} ~~~~

Sitios de Internet por países.Internet tiene un impacto profundo en el trabajo, el ocio y el conocimiento a nivel mundial. Gracias a la web, millones de personas tienen acceso fácil e inmediato a una cantidad extensa y diversa de información en línea. Un ejemplo de esto es el desarrollo y la distribución de colaboración del software de Free/Libre/Open-Source (SEDA) por ejemplo GNU, Linux, Mozilla y OpenOffice.org.

Comparado a las enciclopedias y a las bibliotecas tradicionales, la web ha permitido una descentralización repentina y extrema de la información y de los datos. Algunas compañías e individuos han adoptado el uso de los weblogs, que se utilizan en gran parte como diarios actualizables. Algunas organizaciones comerciales animan a su personal para incorporar sus áreas de especialización en sus sitios, con la esperanza de que impresionen a los visitantes con conocimiento experto e información libre.

Internet ha llegado a gran parte de los hogares y de las empresas de los países ricos. En este aspecto se ha abierto una brecha digital con los países pobres, en los cuales la penetración de Internet y las nuevas tecnologías es muy limitada para las personas.

No obstante, en el transcurso del tiempo se ha venido extendiendo el acceso a Internet en casi todas las regiones del mundo, de modo que es relativamente sencillo encontrar por lo menos 2 computadoras conectadas en regiones remotas.[cita requerida]

Desde una perspectiva cultural del conocimiento, Internet ha sido una ventaja y una responsabilidad. Para la gente que está interesada en otras culturas, la red de redes proporciona una cantidad significativa de información y de una interactividad que sería inasequible de otra manera.[cita requerida]

Internet entró como una herramienta de globalización, poniendo fin al aislamiento de culturas. Debido a su rápida masificación e incorporación en la vida del ser humano, el espacio virtual es actualizado constantemente de información, fidedigna o irrelevante.[cita requerida]

Ocio
Muchos utilizan la Internet para descargar música, películas y otros trabajos. Hay fuentes que cobran por su uso y otras gratuitas, usando los servidores centralizados y distribuidos, las tecnologías de P2P. Otros utilizan la red para tener acceso a las noticias y el estado del tiempo.

La mensajería instantánea o chat y el correo electrónico son algunos de los servicios de uso más extendido. En muchas ocasiones los proveedores de dichos servicios brindan a sus afiliados servicios adicionales como la creación de espacios y perfiles públicos en donde los internautas tienen la posibilidad de colocar en la red fotografías y comentarios personales. Se especula actualmente si tales sistemas de comunicación fomentan o restringen el contacto de persona a persona entre los seres humanos.[cita requerida]

En tiempos más recientes han cobrado auge portales como YouTube o Facebook, en donde los usuarios pueden tener acceso a una gran variedad de videos sobre prácticamente cualquier tema.

La pornografía representa buena parte del tráfico en Internet, siendo a menudo un aspecto controvertido de la red por las implicaciones morales que le acompañan. Proporciona a menudo una fuente significativa del rédito de publicidad para otros sitios. Muchos gobiernos han procurado sin éxito poner restricciones en el uso de ambas industrias en Internet.

El sistema multijugador constituye también buena parte del ocio en Internet.

Internet y su evolución
Inicialmente Internet tenía un objetivo claro. Se navegaba en Internet para algo muy concreto: búsquedas de información, generalmente.

Ahora quizás también, pero sin duda alguna hoy es más probable perderse en la red, debido al inmenso abanico de posibilidades que brinda. Hoy en día, la sensación que produce Internet es un ruido, una serie de interferencias, una explosión o cúmulo de ideas distintas, de personas diferentes, de pensamientos distintos de tantas y tantas posibilidades que, en ocasiones, puede resultar excesivo.

El crecimiento o más bien la incorporación de tantas personas a la red hace que las calles de lo que en principio era una pequeña ciudad llamada Internet se conviertan en todo un planeta extremadamente conectado entre sí entre todos sus miembros.

El hecho de que Internet haya aumentado tanto implica una mayor cantidad de relaciones virtuales entre personas. Conociendo este hecho y relacionándolo con la felicidad originada por las relaciones personales, es posible concluir que cuando una persona tenga una necesidad de conocimiento popular o de conocimiento no escrito en libros, puede recurrir a una fuente más acorde a su necesidad. Como ahora esta fuente es posible en Internet, dicha persona preferirá prescindir del obligado protocolo que hay que cumplir a la hora de acercarse a alguien personalmente para obtener dicha información y, por ello, no establecerá, para ese fin, una relación personal sino virtual. Este hecho implica la existencia de un medio capaz de albergar soluciones para diversa índole de problemas.

Como toda gran revolución, Internet augura una nueva era de diferentes métodos de resolución de problemas creados a partir de soluciones anteriores. Algunos sienten que Internet produce la sensación que todos han sentido sin duda alguna vez; produce la esperanza que es necesaria cuando se quiere conseguir algo. Es un despertar de intenciones que jamás antes la tecnología había logrado en la población mundial. Para algunos usuarios Internet genera una sensación de cercanía, empatía, comprensión y, a la vez, de confusión, discusión, lucha y conflictos que los mismos usuarios consideran la vida misma.

Preponderancia como fuente de información
En 2009, un estudio realizado en Estados Unidos indicó que un 56% de los 3.030 adultos estadounidenses entrevistados en una encuesta online manifestó que si tuviera que escoger una sola fuente de información, elegiría Internet, mientras que un 21% preferiría la televisión y tanto los periódicos como la radio sería la opción de un 10% de los encuestados. Dicho estudio posiciona a los medios digitales en una posición privilegiada en cuanto a la búsqueda de información y refleja un aumento de la credibilidad en dichos medios.[5] [6]

Trabajo
Con la aparición de Internet y de las conexiones de alta velocidad disponibles al público, Internet ha alterado de manera significativa la manera de trabajar de algunas personas al poder hacerlo desde sus respectivos hogares. Internet ha permitido a estas personas mayor flexibilidad en términos de horarios y de localización, contrariamente a la jornada laboral tradicional de 9 a 5 en la cual los empleados se desplazan al lugar de trabajo.

Un experto contable asentado en un país puede revisar los libros de una compañía en otro país, en un servidor situado en un tercer país que sea mantenido remotamente por los especialistas en un cuarto.

Internet y sobre todo los blogs han dado a los trabajadores un foro en el cual expresar sus opiniones sobre sus empleos, jefes y compañeros, creando una cantidad masiva de información y de datos sobre el trabajo que está siendo recogido actualmente por el colegio de abogados de Harvard.

Internet ha impulsado el fenómeno de la Globalización y junto con la llamada desmaterialización de la economía ha dado lugar al nacimiento de una Nueva Economía caracterizada por la utilización de la red en todos los procesos de incremento de valor de la empresa [cita requerida].

Principales buscadores
Un buscador se define como el sistema informático que indexa archivos almacenados en servidores web cuando se solicita información sobre algún tema. Por medio de palabras clave, se realiza la exploración y el buscador muestra una lista de direcciones con los temas relacionados. Existen diferentes formas de clasificar los buscadores según el proceso de sondeo que realizan. La clasificación más frecuente los divide en: índices o directorios temáticos, motores de búsqueda y metabuscadores.

Índices o directorios temáticos
Los índices o buscadores temáticos son sistemas creados con la finalidad de diseñar un catálogo por temas, definiendo las clasificación por lo que se puede considerar que los contenidos ofrecidos en estas páginas tienes ya cierto orden y calidad.

La función de este tipo de sistemas es presentar algunos de los datos de las páginas más importantes, desde el punto de vista del tema y no de lo que se contiene. Los resultados de la búsqueda de esta de estos índices pueden ser muy limitados ya que los directorios temáticos, las bases de datos de direcciones son muy pequeñas, además de que puede ser posible que el contenido de las páginas no esté completamente al día.

Motores de búsqueda
Este tipo de buscadores son los de uso más común, basados en aplicaciones llamadas spiders (“arañas”) o robots, que buscan la información con base en las palabras escritas, haciendo una recopilación sobre el contenido de las páginas y mostrando como resultado aquéllas que contengan la palabra o frase en alguna parte del texto.

Metabuscadores
Los metabuscadores son sistemas que localizan información en los motores de búsqueda más utilizados, realizan un análisis y seleccionan sus propios resultados. No tienen una base de datos, por lo que no almacenan páginas web y realizan una búsqueda automática en las bases de datos de otros buscadores, tomando un determinado rango de registros con los resultados más relevantes.

Publicidad en Internet
Artículo principal: Publicidad en Internet
Internet se ha convertido en el medio más mensurable[cita requerida] y de más alto crecimiento en la historia. Actualmente existen muchas empresas que obtienen dinero de la publicidad en Internet. Además, existen mucha ventajas que la publicidad interactiva ofrece tanto para el usuario como para los anunciantes

Tamaño de Internet
Cantidad de páginas
Es difícil establecer el tamaño exacto de Internet, ya que éste crece continuamente y no existe una manera fiable de acceder a todo su contenido y, por consiguiente, de determinar su tamaño.

Un estudio del año 2005 usando distintos motores de búsqueda (Google, MSN, Yahoo!, and Ask Jeeves) estimaba que existían 11.500 millones de páginas Web.[7]
Otro estudio del año 2008 estimaba que la cantidad había ascendido a 63.000 millones de páginas web.[8]

Para estimar esta cantidad se usan las webs indexadas por los distintos motores de búsqueda, pero este método no abarca todas las páginas online. Utilizando este criterio Internet se puede dividir en:

Internet superficial: Incluye los servicios indexados por los motores de búsqueda.
Internet profunda: Incluye el resto de servicios no indexados como páginas en Flash, páginas protegidas por contraseña, inaccesibles para las arañas, etc. Se estima que el tamaño de la Internet profunda es varios órdenes de magnitud mayor que el de Internet superficial.
Cantidad de usuarios
El número de usuarios aumenta de forma continua. En 2006 se estimaba el número de internautas en 1.100 millones. Para el 2016 se estima que el número ascenderá a 2.000 millones.

Censura
Es extremadamente difícil, si no imposible, establecer control centralizado y global de la Internet. Algunos gobiernos, de naciones tales como Irán, Arabia Saudita, Cuba, Corea del Norte y la República Popular de China, restringen el que personas de sus países puedan ver ciertos contenidos de Internet, políticos y religiosos, considerados contrarios a sus criterios. La censura se hace, a veces, mediante filtros controlados por el gobierno, apoyados en leyes o motivos culturales, castigando la propagación de estos contenidos. Sin embargo, muchos usuarios de Internet pueden burlar estos filtros, pues la mayoría del contenido de Internet está disponible en todo el mundo, sin importar donde se esté, siempre y cuando se tengan la habilidad y los medios técnicos necesarios.

Otra posibilidad, como en el caso de China, es que este tipo de medidas se combine con la autocensura de las propias empresas proveedoras de servicios de Internet, serían las empresas equivalentes a Telefónicas (proveedores de servicios de Internet), para así ajustarse a las demandas del gobierno del país receptor.[9]

Sin embargo algunos buscadores como Google, han tomado la decisión de amenazar al gobierno de china con al retirada de sus servicios en dicho país si no se abole la censura en Internet. Aunque posteriormente haya negado que tomará dichas medidas[10]

Tecnología de Internet
Acceso a Internet

Esquema con las tecnologías relacionadas al Internet actual.Internet incluye aproximadamente 5.000 redes en todo el mundo y más de 100 protocolos distintos basados en TCP/IP, que se configura como el protocolo de la red. Los servicios disponibles en la red mundial de PC, han avanzado mucho gracias a las nuevas tecnologías de transmisión de alta velocidad, como ADSL y Wireless, se ha logrado unir a las personas con videoconferencia, ver imágenes por satélite (ver tu casa desde el cielo), observar el mundo por webcams, hacer llamadas telefónicas gratuitas, o disfrutar de un juego multijugador en 3D, un buen libro PDF, o álbumes y películas para descargar.

El método de acceso a Internet vigente hace algunos años, la telefonía básica, ha venido siendo sustituido gradualmente por conexiones más veloces y estables, entre ellas el ADSL, Cable Módems, o el RDSI. También han aparecido formas de acceso a través de la red eléctrica, e incluso por satélite (generalmente, sólo para descarga, aunque existe la posibilidad de doble vía, utilizando el protocolo DVB-RS).

Internet también está disponible en muchos lugares públicos tales como bibliotecas, bares, restaurantes, hoteles o cibercafés y hasta en centros comerciales. Una nueva forma de acceder sin necesidad de un puesto fijo son las redes inalámbricas, hoy presentes en aeropuertos, subterráneos, universidades o poblaciones enteras.

Nombres de dominio
Artículo principal: Dominio de Internet
La Corporación de Internet para los Nombres y los Números Asignados (ICANN) es la autoridad que coordina la asignación de identificadores únicos en Internet, incluyendo nombres de dominio, direcciones de Protocolos de Internet, números del puerto del protocolo y de parámetros. Un nombre global unificado (es decir, un sistema de nombres exclusivos para sostener cada dominio) es esencial para que Internet funcione.

El ICANN tiene su sede en California, supervisado por una Junta Directiva Internacional con comunidades técnicas, comerciales, académicas y ONG. El gobierno de los Estados Unidos continúa teniendo un papel privilegiado en cambios aprobados en el Domain Name System. Como Internet es una red distribuida que abarca muchas redes voluntariamente interconectadas, Internet, como tal, no tiene ningún cuerpo que lo gobierne.

REDESB SOCIALES

Posted in jazz on 16 septiembre, 2010 by luciavergel

Este artículo es sobre redes sociales como campo de investigación, no sobre los servicios de red social inspirados en los trabajos de Milgram sobre un Mundo pequeño, como Facebook , MySpace ,msn , hi5,
Una red social es una estructura social compuesta de personas , las cuales están conectadas por uno o varios tipos de relaciones, tales como amistad, parentesco, intereses comunes, intercambios económicos, relaciones sexuales, o que comparten creencias, conocimiento o prestigio.

El análisis de redes sociales estudia esta estructura social aplicando la Teoría de Grafos e identificando las entidades como “nodos” o “vértices” y las relaciones como “enlaces” o “aristas”. La estructura del grafo resultante es a menudo muy compleja. Como se ha dicho, puede haber muchos tipos de lazos entre los nodos. La investigación multidisciplinar ha mostrado que las redes sociales operan en muchos niveles, desde las relaciones de parentesco hasta las relaciones de organizaciones a nivel estatal (se habla en este caso de Redes políticas), desempeñando un papel crítico en la determinación de la agenda política y el grado en el cual los individuos o las organizaciones alcanzan sus objetivos o reciben influencias.

En su forma más simple, una red social es un mapa de todos los lazos relevantes entre todos los nodos estudiados. Se habla en este caso de redes “sociocéntricas” o “completas”. Otra opción es identificar la red que envuelve a una persona (en los diferentes contextos sociales en los que interactúa); en este caso se habla de “red personal”.

La red social también puede ser utilizada para medir el capital social (es decir, el valor que un individuo obtiene de los recursos accesibles a través de su red social). Estos conceptos se muestran, a menudo, en un diagrama donde los nodos son puntos y los lazos, líneas.
Análisis de redes sociales

Ejemplo de un diagrama de una red social. El nodo con la más alta intermediación centralidad está marcado en amarillo.El Análisis de redes sociales (relacionado con la teoría de redes) ha emergido como una metodología clave en las modernas Ciencias Sociales, entre las que se incluyen la sociología, la antropología, la psicología social, la economía, la geografía, las Ciencias políticas, la cienciometría, los estudios de comunicación, estudios organizacionales y la sociolingüística. También ha ganado un apoyo significativo en la física y la biología entre otras.

En el lenguaje cotidiano se ha utilizado libremente la idea de “red social” durante más de un siglo para denotar conjuntos complejos de relaciones entre miembros de los sistemas sociales en todas las dimensiones, desde el ámbito interpersonal hasta el internacional. En 1954, el antropólogo de la Escuela de Manchester J. A. Barnes comenzó a utilizar sistemáticamente el término para mostrar patrones de lazos, abarcando los conceptos tradicionalmente utilizados por los científicos sociales: grupos delimitados (p.e., tribus, familias) y categorías sociales (p.e., género, etnia). Académicos como S.D. Berkowitz, Stephen Borgatti, Burt Ronald Burt, Carley Kathleen Carley, Martin Everett, Katherine Faust, Linton Freeman, Granovetter Mark Granovetter, David Knoke, Krackhardt David Krackhardt, Peter Marsden, Nicholas Mullins, Rapoport Anatol Rapoport, Stanley Wasserman, Wellman Barry Wellman, R. White Douglas R. White, y White Harrison White expandieron el uso del análisis de redes sociales sistemático.[1]

El Análisis de redes sociales ha pasado de ser una metáfora sugerente para constituirse en un enfoque analítico y un paradigma, con sus principios teóricos, métodos network analysis software software para análisis de redes sociales y líneas de investigación propios. Los analistas estudian la influencia del todo en las partes y viceversa, el efecto producido por la acción selectiva de los individuos en la red; desde la estructura hasta la relación y el individuo, desde el comportamiento hasta la actitud. Como se ha dicho estos análisis se realizan bien en redes completas, donde los lazos son las relaciones específicas en un población definida, o bien en redes personales (también conocidas como redes egocéntricas, aunque no son exactamente equiparables), donde se estudian “comunidades personales”.[2] La distinción entre redes totales/completas y redes personales/egocéntricas depende mucho más de la capacidad del analista para recopilar los datos y la información. Es decir, para grupos tales como empresas, escuelas o sociedades con membrecía, el analista espera tener información completa sobre quien está en la red, siendo todos los participantes egos y alteri potenciales. Los estudios personales/egocéntricos son conducidos generalmente cuando las identidades o egos se conocen, pero no sus alteri. Estos estudios permiten a los egos aportar información sobre la identidad de sus alteri y no hay la expectativa de que los distintos egos o conjuntos de alteri estén vinculados con cada uno de los otros.

Una red construida a partir de una bola de nieve se refiere a la idea de que los alteri son identificados en una encuesta por un conjunto de Egos iniciales (oleada cero) y estos mismos alteri se convierten en egos en la oleada 1 y nombran a otros alteri adicionales y así sucesivamente hasta que el porcentaje de alteri nuevos empieza a disminuir. Aunque hay varios límites logísticos en la conducción de estudios de bola de nieve, hay desarrollo recientes para examinar redes híbridas, según el cual egos en redes completas pueden nombrar a alteri que de otro modo no estarían identificados, posibilitando que éstos sean visibles para todos los egos de la red. [3] La red híbrida, puede ser valiosa para examinar redes totales/completas sobre las que hay la expectativa de incluir actores importantes más allá de los identificados formalmente. Por ejemplo, los empleados de una compañía a menudo trabajan con consultores externos que son parte de una red que no pueden definir totalmente antes de la recolección de datos.

En el análisis de redes sociales, se distinguen varias tendencias analíticas:[4]

No se parte de la hipótesis de que los grupos son los bloques en la sociedad: el enfoque está abierto a estudiar sistemas sociales menos definidos, desde comunidades no locales, hasta enlaces a través de websites.
En lugar de tratar a los individuos (personas, organizaciones, estados) como unidades discretas de análisis, se centra en cómo la estructura de las relaciones afecta a los individuos y sus relaciones.
En contraste con los análisis que asumen que la socialización de las normas determina el comportamiento, el análisis de redes se utiliza para observar el grado en que la estructura y composición de las relaciones entre los individuos afectan a las normas.
La forma de una red social ayuda a determinar la utilidad de la red para sus individuos. Las redes más pequeñas y más estrictas, pueden ser menos útiles para sus miembros que las redes con una gran cantidad de conexiones sueltas (vínculo débil) con personas fuera de la red principal. Las redes más abiertas, con muchos vínculos y relaciones sociales débiles, tienen más probabilidades de presentar nuevas ideas y oportunidades a sus miembros que las redes cerradas con muchos lazos redundantes. En otras palabras, un grupo de amigos que sólo hacen cosas unos con otros ya comparten los mismos conocimientos y oportunidades. Un grupo de individuos con conexiones a otros mundos sociales es probable que tengan acceso a una gama más amplia de información. Es mejor para el éxito individual tener conexiones con una variedad de redes en lugar de muchas conexiones en una sola red. Del mismo modo, los individuos pueden ejercer influencia o actuar como intermediadores en sus redes sociales, de puente entre dos redes que no están directamente relacionadas (conocido como llenar huecos estructurales).[5]

El poder de análisis de redes sociales estriba en su diferencia de los estudios tradicionales en las Ciencias Sociales, que asumen que los atributos de cada uno de los actores -ya sean amistosos o poco amistosos, inteligentes o tontos, etc- es lo que importa. El análisis de redes sociales produce una visión a la vez alternativa y complementaria, en la cual los atributos de los individuos son menos importantes que sus relaciones y sus vínculos con otros actores dentro de la red. Este enfoque ha resultado ser útil para explicar muchos fenómenos del mundo real, pero deja menos espacio para la acción individual y la capacidad de las personas para influir en su éxito, ya que gran parte se basa en la estructura de su red.

Las redes sociales también se han utilizado para examinar cómo las organizaciones interactúan unas con otras, caracterizando las múltiples conexiones informales que vinculan a los ejecutivos entre si, así como las asociaciones y conexiones entre los empleados de diferentes organizaciones. Por ejemplo, el poder dentro de las organizaciones, a menudo proviene más del grado en que un individuo dentro de una red se encuentra en el centro de muchas relaciones, que de su puesto de trabajo real. Las redes sociales también juegan un papel clave en la contratación, en el éxito comercial y en el desempeño laboral. Las redes son formas en las cuales las empresas recopilan información, desalientan la competencia, y connivencia en la fijación de precios o políticas.[6]

[editar] Historia del análisis de redes sociales
Linton Freeman ha escrito la historia del progreso de las redes sociales y del análisis de redes sociales.[7]

Los precursores de las redes sociales, a finales del siglo XVIII incluyen a Émile Durkheim y a Ferdinand Tönnies. Tönnies argumentó que los grupos sociales pueden existir bien como lazos sociales personales y directos que vinculan a los individuos con aquellos con quienes comparte valores y creencias (gemeinschaft), o bien como vínculos sociales formales e instrumentales (gesellschaft). Durkheim aportó una explicación no individualista al hecho social, argumentando que los fenómenos sociales surgen cuando los individuos que interactúan constituyen una realidad que ya no puede explicarse en términos de los atributos de los actores individuales. Hizo distinción entre una sociedad tradicional -con “solidaridad mecánica”- que prevalece si se minimizan las diferencias individuales; y una sociedad moderna -con “solidaridad orgánica”- que desarrolla cooperación entre individuos diferenciados con roles independientes.

Por su parte, Georg Simmel a comienzos del siglo XX, fue el primer estudioso que pensó directamente en términos de red social. Sus ensayos apuntan a la naturaleza del tamaño de la red sobre la interacción y a la probabilidad de interacción en redes ramificadas, de punto flojo, en lugar de en grupos. (Simmel, 1908/1971).

Después de una pausa en las primeras décadas del siglo XX, surgieron tres tradiciones principales en las redes sociales. En la década de 1930, L. Moreno J.L. Moreno fue pionero en el registro sistemático y en el análisis de la interacción social de pequeños grupos, en especial las aulas y grupos de trabajo (sociometría), mientras que un grupo de Harvard liderado por Lloyd Warner W. Lloyd Warner y Mayo Elton Mayo exploró las relaciones interpersonales en el trabajo. En 1940, en su discurso a los antropólogos británicos, A.R. Radcliffe-Brown instó al estudio sistemático de las redes.[8] Sin embargo, tomó unos 15 años antes de esta convocatoria fuera seguida de forma sistemática.

El Análisis de redes sociales se desarrolló con los estudios de parentesco de Elizabeth Bott en Inglaterra entre los años 1950, y con los estudios de urbanización del grupo de antropólogos de la Universidad de Manchester (acompañando a Max Gluckman y después a Clyde Mitchell J. Clyde Mitchell) entre los años 1950 y 1960, investigando redes comunitarias en el sur de África, India y el Reino Unido. Al mismo tiempo, el antropólogo británico Frederick Nadel SF Nadel codificó una teoría de la estructura social que influyó posteriormente en el análisis de redes.[9]

Entre los años 1960 y 1970, un número creciente de académicos trabajaron en la combinación de diferentes temas y tradiciones. Un grupo fue el de White Harrison White y sus estudiantes en el Departamento de Relaciones Sociales de la Universidad de Harvard: Ivan Chase, Bonnie Erickson, Harriet Friedmann, Granovetter Mark Granovetter, Nancy Howell, Joel Levine, Nicholas Mullins, John Padgett, Schwartz (sociologist) Michael Schwartz y Wellman Barry Wellman. Otras personas importantes en este grupo inicial fueron Charles Tilly, quien se enfocó en redes en sociología política y movimientos sociales, y Stanley Milgram, quien desarrolló la tesis de los “seis grados de separación”.[10] Mark Granovetter y Barry Wellman están entre los antiguos estudiantes de White que han elaborado y popularizado el análisis de redes sociales.[11]

Pero el grupo de White no fue el único. En otros lugares, distintos académicos desarrollaron un trabajo independiente significativo: científicos sociales interesados en aplicaciones matemáticas de la Universidad de California Irvine en torno a Linton Freeman, incluyendo a John Boyd, Susan Freeman, Kathryn Faust, Kimball Romney A. Kimball Romney y White Douglas White; analistas cuantitativos de la Universidad de Chicago, incluyendo a Joseph Galaskiewicz, Wendy Griswold, Edward Laumann, Peter Marsden, Martina Morris, y John Padgett; y académicos de la comunicación en la Universidad de Michigan, incluyendo a Lin Nan Lin y Rogers Everett Rogers. En los 70s, se ćonstituyó un grupo de sociología sustantiva orientada de la Universidad de Toronto, en torno a antiguos estudiantes de Harrison White: S.D. Berkowitz, Harriet Friedmann, Nancy Leslie Howard, Nancy Howell, Lorne Tepperman y Wellman Barry Wellman, y también los acompañó el señalado modelista y teorético de los juegos Rapoport Anatol Rapoport. En términos de la teoría, criticó el individualismo metodológico y los análisis basados en grupos, argumentando que ver el mundo desde la óptica de las redes sociales ofrece un apalancamiento más analítico.[12]

En el mundo Iberoamericano existen la Revista REDES y el web REDES, albergado en REDIRis, creados a partir de la Conferencia Internacional de redes sociales celebrada en Sitges, Barcelona, en 1998.

[editar] Investigación
El análisis de redes sociales se ha utilizado en epidemiología para ayudar a entender cómo los patrones de contacto humano favorecen o impiden la propagación de enfermedades como el VIH en una población. La evolución de las redes sociales a veces puede ser simulada por el uso de modelos basados en agentes, proporcionando información sobre la interacción entre las normas de comunicación, propagación de rumores y la estructura social.

El análisis de redes sociales también puede ser una herramienta eficaz para la vigilancia masiva – por ejemplo, el Information Awareness Total Information Awareness realizó una investigación a fondo sobre las estrategias para analizar las redes sociales para determinar si los ciudadanos de EE.UU. eran o no amenazas políticas.

La teoría de Difusión de innovaciones explora las redes sociales y su rol en la influencia de la difusión de nuevas ideas y prácticas. El cambio en los agentes y en la opinion del líder a menudo tienen un papel más importante en el estímulo a la adopción de innovaciones, a pesar de que también intervienen factores inherentes a las innovaciones.

Por su parte, Dunbar Robin Dunbar sugirió que la medída típica en una red egocéntrica está limitado a unos 150 miembros, debido a los posibles límites de la capacidad del canal de la comunicación humana. Esta norma surge de los estudios transculturales de la sociología y especialmente de la antropología sobre la medida máxima de una aldea (en el lenguaje moderno mejor entendido como una ecoaldea). Esto está teorizado en la psicología evolutiva, cuando afirma que el number número puede ser una suerte de límite o promedio de la habilidad humana para reconocer miembros y seguir hechos emocionales con todos los miembros de un grupo. Sin embargo, este puede deberse a la intervención de la economía y la necesidad de seguir a los “polizones”, lo que hace que sea más fácil en grandes grupos sacar ventaja de los beneficios de vivir en una comunidad sin contribuir con esos beneficios.

Granovetter Mark Granovetter encontró en un estudio que un número grande de lazos débiles puede ser importante para la búsqueda de información y la innovación. Los Cliques tienen una tendencia a tener opiniones más homogéneas, así como a compartir muchos rasgos comunes. Esta tendencia homofílica es la razón por la cual los miembros de las camarillas se atraen en primer término. Sin embargo, de forma parecida, cada miembro del clique también sabe más o menos lo que saben los demás. Para encontrar nueva información o ideas, los miembros del clique tendrán que mirar más allá de este a sus otros amigos y conocidos. Esto es lo que Granovetter llamó “la fuerza de los lazos débiles”.

Hay otras aplicaciones del término red social. Por ejemplo, el Guanxi es un concepto central en la sociedad china (y otras culturas de Asia oriental), que puede resumirse como el uso de la influencia personal. El Guanxi puede ser estudiado desde un enfoque de red social.[13]

El fenómeno del Mundo pequeño es la hipótesis sobre que la cadena de conocidos sociales necesaria para conectar a una persona arbitraria con otra persona arbitraria en cualquier parte del mundo, es generalmente corta. El concepto dio lugar a la famosa frase de seis grados de separación a partir de los resultados del “experimento de un mundo pequeño” hecho en 1967 por el psicólogo Stanley Milgram. En el experimento de Milgram, a una muestra de individuos EE.UU. se le pidió que hiciera llegar un mensaje a una persona objetivo en particular, pasándolo a lo largo de una cadena de conocidos. La duración media de las cadenas exitosas resultó ser de unos cinco intermediarios, o seis pasos de separación (la mayoría de las cadenas en este estudio ya no están completas). Los métodos (y la ética también) del experimento de Milgram fueron cuestionados más tarde por un estudioso norteamericano, y algunas otras investigaciones para replicar los hallazgos de Milgram habrían encontrado que los grados de conexión necesarios podrían ser mayores.[14] Investigadores académicos continúan exploranto este fenómeno dado que la tecnología de comunicación basada en Internet ha completado la del teléfono y los sistemas postales disponibles en los tiempos de Milgram. Un reciente experimento electrónico del mundo pequeño en la Universidad de Columbia, arrojó que cerca de cinco a siete grados de separación son suficientes para conectar cualesquiera dos personas a través de e-mail.[15]

Los gráficos de colaboración pueden ser utilizados para ilustrar buenas y malas relaciones entre los seres humanos. Un vínculo positivo entre dos nodos denota una relación positiva (amistad, alianza, citas) y un vínculo negativo entre dos nodos denota una relación negativa (odio, ira). Estos gráficos de redes sociales pueden ser utilizados para predecir la evolución futura de la gráfica. En ellos, existe el concepto de ciclos “equilibrados” y “desequilibrados”. Un ciclo de equilibrio se define como aquél donde el producto de todos los signos son positivos. Los gráficos balanceados representan un grupo de personas con muy poca probabilidad de cambio en sus opiniones sobre las otras personas en el grupo. Los gráficos desequilibrados representan un grupo de individuo que es muy probable que cambie sus opiniones sobre los otros en su grupo. Por ejemplo, en un grupo de 3 personas (A, B y C) donde A y B tienen una relación positiva, B y C tienen una relación positiva, pero C y A tienen una relación negativa, es un ciclo de desequilibrio. Este grupo es muy probable que se transforme en un ciclo equilibrado, tal que la B sólo tiene una buena relación con A, y tanto A como B tienen una relación negativa con C. Al utilizar el concepto de ciclos balanceados y desbalanceados, puede predecirse la evolución de la evolución de un grafo de red social.

Un estudio ha descubierto que la felicidad tiende a correlacionarse en redes sociales. Cuando una persona es feliz, los amigos cercanos tienen una probabilidad un 25 por ciento mayor de ser también felices. Además, las personas en el centro de una red social tienden a ser más feliz en el futuro que aquellos situados en la periferia. En las redes estudiadas se observaron tanto a grupos de personas felices como a grupos de personas infelices, con un alcance de tres grados de separación: se asoció felicidad de una persona con el nivel de felicidad de los amigos de los amigos de sus amigos.[16]

Algunos investigadores han sugerido que las redes sociales humanas pueden tener una base genética.[17] Utilizando una muestra de mellizos del Longitudinal Study of Adolescent Health National Longitudinal Study of Adolescent Health, han encontrado que el in-degree (número de veces que una persona es nombrada como amigo o amiga), la transitividad (la probabilidad de que dos amigos sean amigos de un tercero), y la intermediación y centralidad (el número de lazos en la red que pasan a través de una persona dada) son significativamente hereditarios. Los modelos existentes de formación de redes no pueden dar cuenta de esta variación intrínseca, por lo que los investigadores proponen un modelo alternativo “Atraer y Presentar”, que pueda explicar ese caracter hereditario y muchas otras características de las redes sociales humanas.[18]

[editar] Métricas (Medidas) en análisis de redes sociales
Intermediación
La medida en que un nodo se encuentra entre los demás nodos en una red. Esta medida toma en cuenta la conectividad de los vecinos del nodo, dando un mayor valor a los nodos que conectan a grupos. La medida refleja el número de personas que una persona conecta indirectamente a través de sus vínculos directos.[19]
Conector
Un lazo puede ser llamado conector si su eliminación causa que los puntos que conecta se transformen en componentes distintos de un grafo.
Centralidad
Esta medida da una idea aproximada del poder social de un nodo basándose en lo bien que se “conecte” éste a la red. “Intermediación”, “Cercanía”, y “Grado” son todas medidas de centralidad.
Centralización
La diferencia entre el número de enlaces para cada nodo, dividido entre la cantidad máxima posible de diferencias. Una red centralizada tendrá muchos de sus vínculos dispersos alrededor de uno o unos cuantos puntos nodales, mientras que una red descentralizada es aquella en la que hay poca variación entre el número de enlaces de cada nodo posee.
Cercanía
El grado en que un persona está cerca de todas las demás en una red (directa o indirectamente). Refleja la capacidad de acceder a la información a través de la “red de chismes” de los miembros de la red. Así, la cercanía es la inversa de la suma de las distancias más cortas entre cada individuo y cada una de las otras personas en la red. (Véase también: Proxemics). El camino más corto también es conocido como la “distancia geodésica”.
Coeficiente de agrupamiento
Una medida de la probabilidad de que dos personas vinculadas a un nodo se asocien a sí mismos. Un coeficiente de agrupación más alto indica un mayor «exclusivismo».
Cohesión
El grado en que los actores se conectan directamente entre sí por vínculos cohesivos. Los grupos se identifican como ‘cliques’ si cada individuo está vinculado directamente con con cada uno de los otros, ‘círculos sociales’ si hay menos rigor en el contacto directo y este es inmpreciso, o bloques de cohesión estructural si se requiere la precisión.[20]
Grado
El recuento del número de vínculos con otros actores en la red. Véase también grado (teoría de grafos).
(Nivel individual) Densidad
El grado de relaciones de un demandado de conocerse unos a otros / proporción de lazos entre las mencione de un individuo. La densidad de la red, o densidad global, es la proporción de vínculos en una red en relación con el total de vínculos posibles (redes escasas versus densas)
Flujo de centralidad de intermediación
El grado en que un nodo contribuye a la suma del flujo máximo entre todos los pares de noso (excluyendo ese nodo).
Centradidad de Eigenvector (Autovector)
Una medida de la importancia de un nodo en una red. Asigna puntuaciones relativas a todos los nodos de la red basadas en el principio de que las conexiones a los nodos que tienen una puntuación más alta, contribuyen más a la puntuación del nodo en cuestión

Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

%d personas les gusta esto: