jueves, 4 de octubre de 2012

INTERNET

Internet es una red de redes, que conecta unos computadores con otros mediante los protocolos TCP/IP. Cada PC pone en marcha un software que permite proporcionar y/o acceder a determinada información, Internet es el vehículo para transportar esta información almacenada en archivos o documentos que se encuentran en dichos computadores.
Internet, puede compararse con un gigantesco sistema internacional de acueducto y donde agua es la Información que fluye a través de ella, pues Internet en sí no contiene información. Por eso es ligeramente errado afirmar que “el documento se halló en Internet”. Sería mucho mejor decir que fue encontrado a través o mediante el uso de Internet. Lo que realmente se encontró es uno de los servidores conectados a Internet y es en realidad allí donde se encuentra la información.
Gracias a los beneficios de la Internet esta se ha convertido en una necesidad en el mundo globalizado en que vivimos debido a los beneficios que se obtienen de ella. Por eso es importante que el estudiante conozca los conceptos básicos, aplicaciones y alcances para que los pueda aplicar en sus tareas cotidianas y fortalezca su competitividad académica y laboral.

¿Qué son las telecomunicaciones?
Recientemente la palabra "telecomunicación" se ha incorporado al vocabulario habitual; en los medios de comunicación como al televisión y los periódicos encontramos anuncios que nos dicen que las telecomunicaciones nos cambiarán la vida y nos llevarán hacia el progreso, y que tendremos cada vez más y más servicios diferentes: Internet  teléfonos móviles con vídeo incorporado, etc., todo esto en el contexto de un nuevo tipo de empresas llamadas operadores de telecomunicaciones. Entre este mar de información se hace difícil adivinar exactamente qué es la telecomunicación. Su definición más sencilla y comprensible es ésta: es toda emisión, recepción y transmisión, de signos, señales, escritos, imágenes, sonidos y cualquier tipo de datos, por cable, radio, medios ópticos u otros sistemas electromagnéticos.

Los computadores en Internet pueden usar uno o varios de los siguientes servicios:
• Correo electrónico (e-mail). Permite enviar y recibir mensajes. Provee acceso a grupos de discusión por medio de mensajes.
• Ingreso por red telefónica o remota. Permite que su computador se conecte a otro por medio de una línea telefónica y utilizarlos como si estuvieran el uno junto al otro.
• FTP o Protocolo de Transferencia de Archivos. Permite trasladar rápidamente archivos de gran tamaño desde un computador remoto para verlos o guardarlos en su computador.
• Gopher. Un método antiguo, de solo texto, para tener acceso a documentos de Internet. Gopher esta casi totalmente sumergido en la Red, pero aún se pueden encontrar documentos Gopher enlazados a páginas Web.
• El World Wide Web (WWW o Web). La actividad más grande y de mayor crecimiento en Internet.

Requisitos para una conexión a Internet.

Una red de datos permite a un conjunto de computadoras conectadas compartir información y aplicaciones de software. Esta conexión se realiza, utilizando elementos de Hardware específicos para realizar esta tarea. Los medios físicos que se utilizan para conectar las computadoras que hacen parte de la red pueden ser inalámbricos o no inalámbricos (de cableado). Cuando interconectamos muchas redes de datos o una gran cantidad de redes de datos y en ellas se encuentra contenido basado en el protocolo HTML, decimos que tenemos una red de redes, como lo es Internet.
Para que la conexión a Internet exista es necesario contar con:
Conexión física (Dispositivos de Hardware)
Conexión lógica (Protocolos)
Aplicaciones (que interpreten datos y muestren la información)
La conexión física la hacen los elementos de Hardware tales como las tarjetas de red Ethernet, que utilizan cables para la conexión (cable UTP) , y las tarjetas de red Wireless que no usan cables sino ondas para la transferencia de datos.


La conexión lógica está conformada por los protocolos que permiten la transferencia de datos y la interpretación de los mismos. Ejemplo de ellos son los protocolos TCP/IP para ejecutar la conexión a Internet y la transferencia de datos, y el protocolo FTP para la transferencia de archivos desde un servidor y Las aplicaciones que permiten la correcta visibilidad de la información son llamados navegadores, entre los más populares, se encuentran los programas Internet Explorer, Mozzilla Firefox, Opera, Google Chrome, Safari. Estos programas interpretan el lenguaje HTML y otros plug-ins para mostrarle al usuario la información como textos, videos, imágenes, sonidos, animaciones, etc.
como la Internet es un medio para transmitir datos ocurre que el PC es propenso a adquirir VIRUS por tanto es necesario tener instalado un antivirus en cada equipo.
Antivirus. Es un programa cuya función es prevenir, detectar y eliminar virus y software malicioso como spyware, troyanos, etc.Habitualmente un antivirus se carga en la memoria y permanece allí para analizar todos los archivos que se ejecutan en el PC, comprobando que no están infectados con software malicioso. Cuando se detecta este tipo de software malicioso, el antivirus nos da varias opciones, como por ejemplo, poner el archivo en cuarentena, eliminarlo, renombrarlo o ignorar las opciones y no tomar ninguna decisión.



Existen muchos conceptos o términos que se utilizan en el lenguaje de las redes e Internet, por lo tanto es necesario que se mencionen los más usuales a continuación se definen los siguientes:
Dirección electrónica: las direcciones electrónicas son simplemente una serie de caracteres que permiten al usuario ubicar el contenido de un sitio Web específico, el cual se encuentra alojado o almacenado en un servidor.
FTP: Acrónimo de File Transfer Protocol, o protocolo de transferencia de archivos que se utiliza en Internet y otras redes para transmitir archivos entre servidores o entre un usuario y un servidor. Entre sus características tenemos: Transmite sin errores, dispone de un sistema de conexión de datos, maneja un código de redundancia de datos y tiene la capacidad de retomar la descarga en caso de una conexión fallida.
Hipervínculo: se conoce como enlace, son referencias entre varias páginas que se encuentran en la red Internet.
HTML. Acrónimo de HyperText Markup Language, lenguaje de marcas de hipertexto. En un documento HTML hay etiquetas que indican los atributos del texto (negrita, centrado...). Otras indican al sistema cómo debe responder a eventos que genere el usuario, por ejemplo, que después de que el usuario señale con el mouse un icono que representa una película, se ejecute el programa que reproduce vídeo en formato digital. La etiqueta más importante es la que indica un vínculo (link), que puede contener como destinatario otro lugar del mismo documento o el URL de otro documento; este último puede residir en el mismo lugar de la Web que el documento actual o en cualquier otro ordenador de WWW. El usuario se desplaza de documento en documento seleccionando estos vínculos con el mouse.
HTTP: Es un acrónimo de HyperText Transfer Protocol, ó (protocolo de transferencia de hipertexto). Protocolo encargado de encontrar los sitios Web de acuerdo a las direcciones electrónicas escritas por el usuario en la opción de dirección de un navegador, es decir, se utiliza en las transferencias de información de páginas en Internet, de tal forma que puedan ser visualizadas en un navegador.
Portal: El término "portal" se refiere a un sitio web que se usa como punto de partida para visitar otros sitios; los portales generalmente buscan formar comunidades en la localidad geográfica donde operan. Los portales suelen incluir diversos servicios; por mencionar algunos:
• Directorios de otros sitios web
• Herramientas para búsqueda en el web
• Noticias
• Horóscopos
• Foros de pláticas o chat
• Información del clima, de la bolsa, telefónica, mapas y guías turísticas
• E-mail gratuito
• Personalización de información, etc.
Servidor: Computador de gran capacidad de almacenamiento y procesamiento de información, que gestiona las tareas pesadas como la clasificación y enrutamiento del correo, mantenimiento de los sitios y servicio de páginas Web a los clientes.
URL: acrónimo de Universal Resource Locator (localizador universal de recursos), método de identificación de documentos o lugares en Internet, que se utiliza principalmente en World Wide Web (WWW). Un URL o también dirección electrónica, es una cadena de caracteres que identifica el tipo de documento, el computador, el directorio y los subdirectorios en donde se encuentra el documento y su nombre




NETWORKING:

Las redes sociales son estructuras sociales compuestas de grupos de personas, las cuales están conectadas por uno o varios tipos de relaciones, tales como amistadparentesco, intereses comunes o que comparten conocimientos, e ideas de libre expresión. Puede haber muchos tipos de lazos entre los nodos. La investigación multidisciplinar ha mostrado que las redes sociales operan en muchos niveles, desde las relaciones de parentesco hasta las relaciones de organizaciones a nivel estatal (se habla en este caso de Redes políticas), desempeñando un papel crítico en la determinación de la agenda política y el grado en el cual los individuos o las organizaciones alcanzan sus objetivos o reciben influencias. 
El Análisis de redes sociales (relacionado con la teoría de redes) ha emergido como una metodología clave en las modernas Ciencias Sociales, entre las que se incluyen la sociología, la antropología, la psicología social, la economía, la geografía, las Ciencias políticas, la cienciometría, los estudios de comunicación, estudios organizacionales y la sociolingüística. También ha ganado un apoyo significativo en la física y la biología entre otras.
En el lenguaje cotidiano se ha utilizado libremente la idea de "red social"durante más de un siglo para denotar conjuntos complejos de relaciones entre miembros de los sistemas sociales en todas las dimensiones, desde el ámbito interpersonal hasta el internacional. En 1954, el antropólogo de la Escuela de Manchester J. A. Barnes comenzó a utilizar sistemáticamente el término para mostrar patrones de lazos, abarcando los conceptos tradicionalmente utilizados por los científicos sociales: grupos delimitados (p.e., tribus, familias) y categorías sociales (p.e., género, etnia). Académicos como S.D. Berkowitz, Stephen Borgatti, Ronald BurtKathleen CarleyMartin Everett, Katherine Faust, Linton Freeman, Mark Granovetter, David Knoke,David Krackhardt, Peter Marsden, Nicholas Mullins, Anatol Rapoport, Stanley Wasserman, Barry WellmanDouglas R. White y Harrison White expandieron el uso del análisis de redes sociales sistemático.1
El análisis de redes sociales ha pasado de ser una metáfora sugerente para constituirse en un enfoque analítico y un paradigma, con sus principios teóricos, métodos de software para análisis de redes sociales y líneas de investigación propios. Los analistas estudian la influencia del todo en las partes y viceversa, el efecto producido por la acción selectiva de los individuos en la red; desde la estructura hasta la relación y el individuo, desde el comportamiento hasta la actitud. Como se ha dicho estos análisis se realizan bien en redes completas, donde los lazos son las relaciones específicas en una población definida, o bien en redes personales (también conocidas como redes egocéntricas, aunque no son exactamente equiparables), donde se estudian "comunidades personales".2 La distinción entre redes totales/completas y redes personales/egocéntricas depende mucho más de la capacidad del analista para recopilar los datos y la información. Es decir, para grupos tales como empresas, escuelas o sociedades con membrecía, el analista espera tener información completa sobre quien está en la red, siendo todos los participantes egos y alteri potenciales. Los estudios personales/egocéntricos son conducidos generalmente cuando las identidades o egos se conocen, pero no sus alteri. Estos estudios permiten a los egos aportar información sobre la identidad de sus alteri y no hay la expectativa de que los distintos egos o conjuntos de alteri estén vinculados con cada uno de los otros.
Una red construida a partir de una bola de nieve se refiere a la idea de que los alteri son identificados en una encuesta por un conjunto de Egos iniciales (oleada cero) y estos mismos alteri se convierten en egos en la oleada 1 y nombran a otros alteri adicionales y así sucesivamente hasta que el porcentaje de alteri nuevos empieza a disminuir. Aunque hay varios límites logísticos en la conducción de estudios de bola de nieve, hay desarrollo recientes para examinar redes híbridas, según el cual egos en redes completas pueden nombrar a alteri que de otro modo no estarían identificados, posibilitando que éstos sean visibles para todos los egos de la red.3 La red híbrida, puede ser valiosa para examinar redes totales/completas sobre las que hay la expectativa de incluir actores importantes más allá de los identificados formalmente. Por ejemplo, los empleados de una compañía a menudo trabajan con consultores externos que son parte de una red que no pueden definir totalmente antes de la recolección de datos.
En el análisis de redes sociales, se distinguen varias tendencias analíticas
No se parte de la hipótesis de que los grupos son los bloques en la sociedad: el enfoque está abierto a estudiar sistemas sociales menos definidos, desde comunidades no locales, hasta enlaces a través de websites.
En lugar de tratar a los individuos (personas, organizaciones, estados) como unidades discretas de análisis, se centra en cómo la estructura de las relaciones afecta a los individuos y sus relaciones.
En contraste con los análisis que asumen que la socialización de las normas determina el comportamiento, el análisis de redes se utiliza para observar el grado en que la estructura y composición de las relaciones entre los individuos afectan a las normas.
La forma de una red social ayuda a determinar la utilidad de la red para sus individuos. Las redes más pequeñas y más estrictas, pueden ser menos útiles para sus miembros que las redes con una gran cantidad de conexiones sueltas (vínculo débil) con personas fuera de la red principal. Las redes más abiertas, con muchos vínculos y relaciones sociales débiles, tienen más probabilidades de presentar nuevas ideas y oportunidades a sus miembros que las redes cerradas con muchos lazos redundantes. En otras palabras, un grupo de amigos que sólo hacen cosas unos con otros ya comparten los mismos conocimientos y oportunidades. Un grupo de individuos con conexiones a otros mundos sociales es probable que tengan acceso a una gama más amplia de información. Es mejor para el éxito individual tener conexiones con una variedad de redes en lugar de muchas conexiones en una sola red. Del mismo modo, los individuos pueden ejercer influencia o actuar como intermediadores en sus redes sociales, de puente entre dos redes que no están directamente relacionadas (conocido como llenar huecos estructurales).5
El poder de análisis de redes sociales estriba en su diferencia de los estudios tradicionales en las Ciencias Sociales, que asumen que los atributos de cada uno de los actores -ya sean amistosos o poco amistosos, inteligentes o tontos, etc- es lo que importa. El análisis de redes sociales produce una visión a la vez alternativa y complementaria, en la cual los atributos de los individuos son menos importantes que sus relaciones y sus vínculos con otros actores dentro de la red. Este enfoque ha resultado ser útil para explicar muchos fenómenos del mundo real, pero deja menos espacio para la acción individual y la capacidad de las personas para influir en su éxito, ya que gran parte se basa en la estructura de su red.
Las redes sociales también se han utilizado para examinar cómo las organizaciones interactúan unas con otras, caracterizando las múltiples conexiones informales que vinculan a los ejecutivos entre si, así como las asociaciones y conexiones entre los empleados de diferentes organizaciones. Por ejemplo, el poder dentro de las organizaciones, a menudo proviene más del grado en que un individuo dentro de una red se encuentra en el centro de muchas relaciones, que de su puesto de trabajo real. Las redes sociales también juegan un papel clave en la contratación, en el éxito comercial y en el desempeño laboral. Las redes son formas en las cuales las empresas recopilan información, desalientan la competencia, y connivencia en la fijación de precios o políticas

Historia del análisis de redes sociales
Linton Freeman ha escrito la historia del progreso de las redes sociales y del análisis de redes sociales.
Los precursores de las redes sociales, a finales del siglo XVIII incluyen a Émile Durkheim y a Ferdinand Tönnies. Tönnies argumentó que los grupos sociales pueden existir bien como lazos sociales personales y directos que vinculan a los individuos con aquellos con quienes comparte valores y creencias (gemeinschaft), o bien como vínculos sociales formales e instrumentales (gesellschaft).Durkheim aportó una explicación no individualista al hecho social, argumentando que los fenómenos sociales surgen cuando los individuos que interactúan constituyen una realidad que ya no puede explicarse en términos de los atributos de los actores individuales. Hizo distinción entre una sociedad tradicional -con "solidaridad mecánica"- que prevalece si se minimizan las diferencias individuales; y una sociedad moderna -con "solidaridad orgánica"- que desarrolla cooperación entre individuos diferenciados con roles independientes.
Por su parte, Georg Simmel a comienzos del siglo XX, fue el primer estudioso que pensó directamente en términos de red social. Sus ensayos apuntan a la naturaleza del tamaño de la red sobre la interacción y a la probabilidad de interacción en redes ramificadas, de punto flojo, en lugar de en grupos.
Después de una pausa en las primeras décadas del siglo XX, surgieron tres tradiciones principales en las redes sociales. En la década de 1930, Jacob L. Moreno fue pionero en el registro sistemático y en el análisis de la interacción social de pequeños grupos, en especial las aulas y grupos de trabajo (sociometría), mientras que un grupo de Harvard liderado por W. Lloyd Warner y Elton Mayoexploró las relaciones interpersonales en el trabajo. En 1940, en su discurso a los antropólogos británicos, A.R. Radcliffe-Brown instó al estudio sistemático de las redes.8 Sin embargo, tomó unos 15 años antes de esta convocatoria fuera seguida de forma sistemática.
El Análisis de redes sociales se desarrolló con los estudios de parentesco de Elizabeth Bott en Inglaterra entre los años 1950, y con los estudios de urbanización del grupo de antropólogos de la Universidad de Manchester (acompañando a Max Gluckman y después aJ. Clyde Mitchell) entre los años 1950 y 1960, investigando redes comunitarias en el sur de África, India y el Reino Unido. Al mismo tiempo, el antropólogo británico Nadel SF Nadel codificó una teoría de la estructura social que influyó posteriormente en el análisis de redes.
Entre los años 1960 y 1970, un número creciente de académicos trabajaron en la combinación de diferentes temas y tradiciones. Un grupo fue el de Harrison White y sus estudiantes en el Departamento de Relaciones Sociales de la Universidad de Harvard: Ivan Chase,Bonnie Erickson, Harriet Friedmann, Mark Granovetter, Nancy Howell, Joel Levine, Nicholas Mullins, John Padgett, Michael Schwartz yBarry Wellman. Otras personas importantes en este grupo inicial fueron Charles Tilly, quien se enfocó en redes en sociología política y movimientos sociales, y Stanley Milgram, quien desarrolló la tesis de los "seis grados de separación". Mark Granovetter y Barry Wellman están entre los antiguos estudiantes de White que han elaborado y popularizado el análisis de redes sociales.
Pero el grupo de White no fue el único. En otros lugares, distintos académicos desarrollaron un trabajo independiente significativo: científicos sociales interesados en aplicaciones matemáticas de la Universidad de California Irvine en torno a Linton Freeman, incluyendo a John Boyd, Susan Freeman, Kathryn Faust, A. Kimball Romney y Douglas White; analistas cuantitativos de laUniversidad de Chicago, incluyendo a Joseph Galaskiewicz, Wendy Griswold, Edward Laumann, Peter Marsden, Martina Morris, y John Padgett; y académicos de la comunicación en la Universidad de Michigan, incluyendo a Nan Lin y Everett Rogers. En la década de 1970, se constituyó un grupo de sociología sustantiva orientada de la Universidad de Toronto, en torno a antiguos estudiantes de Harrison White: S.D. Berkowitz, Harriet Friedmann, Nancy Leslie Howard, Nancy Howell, Lorne Tepperman y Barry Wellman, y también los acompañó el señalado modelista y teorético de los juegos Anatol Rapoport. En términos de la teoría, criticó el individualismo metodológico y los análisis basados en grupos, argumentando que ver el mundo desde la óptica de las redes sociales ofrece un apalancamiento más analítico.

REDES SOCIALES EN INTERNET

El software germinal de las redes sociales parte de la teoría de los Seis grados de separación, según la cual toda la gente del planeta está conectada a través de no más de seis personas. De hecho, existe una patente en EEUU conocida como six degrees patent por la que ya han pagado Tribe y LinkedIn. Hay otras muchas patentes que protegen la tecnología para automatizar la creación de redes y las aplicaciones relacionadas con éstas.
Estas redes sociales se basan en la teoría de los seis grados, Seis grados de separación es la teoría de que cualquiera en la Tierra puede estar conectado a cualquier otra persona en el planeta a través de una cadena de conocidos que no tiene más de seis intermediarios. La teoría fue inicialmente propuesta en 1929 por el escritor húngaro Frigyes Karinthy en una corta historia llamada Chains. El concepto está basado en la idea que el número de conocidos crece exponencialmente con el número de enlaces en la cadena, y sólo un pequeño número de enlaces son necesarios para que el conjunto de conocidos se convierta en la población humana entera.
El término red social es acuñado principalmente a los antropólogos ingleses John Barnes y Elizabeth Bott, ya que, para ellos resultaba imprescindible cosiderar lazos externos a los famliares, residenciales o de pertenencia a algún grupo social.
Los fines que han motivado la creación de las llamadas redes sociales son varios, principalmente, es el diseñar un lugar de interacción virtual, en el que millones de personas alrededor del mundo se concentran con diversos intereses en común.
Recogida también en el libro "Six Degrees: The Science of a Connected Age” del sociólogo Duncan Watts, y que asegura que es posible acceder a cualquier persona del planeta en tan solo seis “saltos”.
Según esta Teoría, cada persona conoce de media, entre amigos, familiares y compañeros de trabajo o escuela, a unas 100 personas. Si cada uno de esos amigos o conocidos cercanos se relaciona con otras 100 personas, cualquier individuo puede pasar un recado a 10.000 personas más tan solo pidiendo a un amigo que pase el mensaje a sus amigos.
Estos 10.000 individuos serían contactos de segundo nivel, que un individuo no conoce pero que puede conocer fácilmente pidiendo a sus amigos y familiares que se los presenten, y a los que se suele recurrir para ocupar un puesto de trabajo o realizar una compra. Cuando preguntamos a alguien, por ejemplo, si conoce una secretaria interesada en trabajar estamos tirando de estas redes sociales informales que hacen funcionar nuestra sociedad. Este argumento supone que los 100 amigos de cada persona no son amigos comunes. En la práctica, esto significa que el número de contactos de segundo nivel será sustancialmente menor a 10.000 debido a que es muy usual tener amigos comunes en las redes sociales.
Si esos 10.000 conocen a otros 100, la red ya se ampliaría a 1.000.000 de personas conectadas en un tercer nivel, a 100.000.000 en un cuarto nivel, a 10.000.000.000 en un quinto nivel y a 1.000.000.000.000 en un sexto nivel. En seis pasos, y con las tecnologías disponibles, se podría enviar un mensaje a cualquier lugar individuo del planeta.
Evidentemente cuanto más pasos haya que dar, más lejana será la conexión entre dos individuos y más difícil la comunicación. Internet, sin embargo, ha eliminado algunas de esas barreras creando verdaderas redes sociales mundiales, especialmente en segmento concreto de profesionales, artistas, etc.
En la década de los 50, Ithiel de Sola Pool (MIT) y Manfred Kochen (IBM) se propusieron demostrar la teoría matemáticamente. Aunque eran capaces de enunciar la cuestión "dado un conjunto de N personas, ¿cual es la probabilidad de que cada miembro de estos N estén conectados con otro miembro vía k1, k2, k3,..., kn enlaces?", después de veinte años todavía eran incapaces de resolver el problema a su propia satisfacción.
En 1967, el psicólogo estadounidense Stanley Milgram ideó una nueva manera de probar la Teoría, que él llamó "el problema del pequeño mundo". El experimento del mundo pequeño de Milgram consistió en la selección al azar de varias personas del medio oeste estadounidense para que enviaran tarjetas postales a un extraño situado en Massachusetts, situado a varios miles de millas de distancia. Los remitentes conocían el nombre del destinatario, su ocupación y la localización aproximada. Se les indicó que enviaran el paquete a una persona que ellos conocieran directamente y que pensaran que fuera la que más probabilidades tendría, de todos sus amigos, de conocer directamente al destinatario. Esta persona tendría que hacer lo mismo y así sucesivamente hasta que el paquete fuera entregado personalmente a su destinatario final.
Aunque los participantes esperaban que la cadena incluyera al menos cientos de intermediarios, la entrega de cada paquete solamente llevó, como promedio, entre cinco y siete intermediarios. Los descubrimientos de Milgram fueron publicados en "Psychology Today" e inspiraron la frase seis grados de separación.
En The social software weblog han agrupado 120 sitios web en 10 categorías y QuickBase también ha elaborado un completo cuadro sobre redes sociales en Internet.
El origen de las redes sociales se remonta, al menos, a 1995, cuando Randy Conrads crea el sitio web classmates.com. Con esta red social se pretende que la gente pueda recuperar o mantener el contacto con antiguos compañeros del colegio, instituto, universidad, etcétera.
En 2002 comienzan a aparecer sitios web promocionando las redes de círculos de amigos en línea cuando el término se empleaba para describir las relaciones en las comunidades virtuales, y se hizo popular en 2003 con la llegada de sitios tales como MySpace oXing. Hay más de 200 sitios de redes sociales, aunque Friendster ha sido uno de los que mejor ha sabido emplear la técnica del círculo de amigos. La popularidad de estos sitios creció rápidamente y grandes compañías han entrado en el espacio de las redes sociales en Internet. Por ejemplo, Google lanzó Orkut el 22 de enero de 2004. Otros buscadores como KaZaZZ! y Yahoo crearon redes sociales en 2005.
En estas comunidades, un número inicial de participantes envían mensajes a miembros de su propia red social invitándoles a unirse al sitio. Los nuevos participantes repiten el proceso, creciendo el número total de miembros y los enlaces de la red. Los sitios ofrecen características como actualización automática de la libreta de direcciones, perfiles visibles, la capacidad de crear nuevos enlaces mediante servicios de presentación y otras maneras de conexión social en línea. Las redes sociales también pueden crearse en torno a las relaciones comerciales.
Las herramientas informáticas para potenciar la eficacia de las redes sociales online (‘software social’), operan en tres ámbitos, “las 3Cs”, de forma cruzada:
§  Comunicación (nos ayudan a poner en común conocimientos).
§  Comunidad (nos ayudan a encontrar e integrar comunidades).
§  Cooperación (nos ayudan a hacer cosas juntos).
El establecimiento combinado de contactos (blended networking) es una aproximación a la red social que combina elementos en línea y del mundo real para crear una mezcla. Una red social de personas es combinada si se establece mediante eventos cara a cara y una comunidad en línea. Los dos elementos de la mezcla se complementan el uno al otro. Vea también computación social.
Las redes sociales continúan avanzando en Internet a pasos agigantados, especialmente dentro de lo que se ha denominado Web 2.0Web 3.0, y dentro de ellas, cabe destacar un nuevo fenómeno que pretende ayudar al usuario en sus compras en Internet: las redes sociales de compras. Las redes sociales de compras tratan de convertirse en un lugar de consulta y compra. Un espacio en el que los usuarios pueden consultar todas las dudas que tienen sobre los productos en los que están interesados, leer opiniones y escribirlas, votar a sus productos favoritos, conocer gente con sus mismas aficiones y, por supuesto, comprar ese producto en las tiendas más importantes con un solo clic. Esta tendencia tiene nombre, se llama Shopping 2.0.

WORLD WIDE WEB, NAVEGADORES

En informática, la World Wide Web (WWW) o Red informática mundial es un sistema de distribución de información basado en hipertexto o hipermedios enlazados y accesibles a través de Internet. Con unnavegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener texto,imágenes, vídeos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.
La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee con la ayuda del belga Robert Cailliaumientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas web), y en los últimos años ha abogado por su visión de una Web semántica.


WorldWideWeb es un navegador web y editor de páginas web en modo gráfico para el sistema operativo NEXTSTEP; es reconocido como la primera aplicación informática de este tipo. Tiempo después de su lanzamiento fue renombrado Nexus para evitar confusiones con el concepto de World Wide Web.
Comenzó el desarrollo de WorldWideWeb durante el mes de octubre del año 1990 usando una computadora NeXTcube mientras trabajaba para el Consejo Europeo para la Investigación Nuclear (CERN). La primera versión de utilidad práctica fue presentada el 25 de diciembre de 1990.
El 26 de febrero de 1991 se hizo la presentación oficial de WorldWideWeb junto a algunos conceptos de World Wide Web.
En marzo del mismo año, el programa se distribuyó entre los compañeros de Berners-Lee en el CERN. En agosto, el público en general pudo acceder a la aplicación a través de los grupos de noticias.
Más gente se sumó al proyecto, incluyendo a Bernd Pollermann, Robert Cailliau, Jean-François Groff, y Nicola Pellow, desarrollador del line-mode browser. Más tardé, Berners-Lee y Groff adaptaron varios de los componentes de WorldWideWeb allenguaje de programación C para desarrollar la API libwww.
El 30 de abril de 1993 el CERN liberó el código fuente de WorldWideWeb bajo el dominio público, convirtiéndolo en software libre. Inicialmente Berners-Lee consideró liberarlo bajo la GNU GPL pero finalmente escogió el dominio público para asegurar un mayor soporte corporativo.3
Estándares Web




Destacamos los siguientes estándares:
§  el Identificador de Recurso Uniforme (URI), que es un sistema universal para referenciar recursos en la Web, como páginas web,
§  el Protocolo de Transferencia de Hipertexto (HTTP), que especifica cómo se comunican el navegador y el servidor entre ellos,
§  el Lenguaje de Marcado de Hipertexto (HTML), usado para definir la estructura y contenido de documentos de hipertexto,
§  el Lenguaje de Marcado Extensible (XML), usado para describir la estructura de los documentos de texto.
Berners Lee dirige desde 2007 el World Wide Web Consortium (W3C), el cual desarrolla y mantiene esos y otros estándares que permiten a los ordenadores de la Web almacenar y comunicar efectivamente diferentes formas de información.





Anexo video de La unidad 2 








No hay comentarios:

Publicar un comentario