INTERNET
Internet es una red de redes, que conecta unos computadores con otros mediante los protocolos TCP/IP. Cada PC pone en marcha un software que permite proporcionar y/o acceder a determinada información, Internet es el vehículo para transportar esta información almacenada en archivos o documentos que se encuentran en dichos computadores.
Internet, puede compararse con un gigantesco sistema internacional de acueducto y donde agua es la Información que fluye a través de ella, pues Internet en sí no contiene información. Por eso es ligeramente errado afirmar que “el documento se halló en Internet”. Sería mucho mejor decir que fue encontrado a través o mediante el uso de Internet. Lo que realmente se encontró es uno de los servidores conectados a Internet y es en realidad allí donde se encuentra la información.
Gracias a los beneficios de la Internet esta se ha convertido en una necesidad en el mundo globalizado en que vivimos debido a los beneficios que se obtienen de ella. Por eso es importante que el estudiante conozca los conceptos básicos, aplicaciones y alcances para que los pueda aplicar en sus tareas cotidianas y fortalezca su competitividad académica y laboral.
¿Qué son las telecomunicaciones?
Recientemente la palabra "telecomunicación" se ha incorporado al vocabulario habitual; en los medios de comunicación como al televisión y los periódicos encontramos anuncios que nos dicen que las telecomunicaciones nos cambiarán la vida y nos llevarán hacia el progreso, y que tendremos cada vez más y más servicios diferentes: Internet teléfonos móviles con vídeo incorporado, etc., todo esto en el contexto de un nuevo tipo de empresas llamadas operadores de telecomunicaciones. Entre este mar de información se hace difícil adivinar exactamente qué es la telecomunicación. Su definición más sencilla y comprensible es ésta: es toda emisión, recepción y transmisión, de signos, señales, escritos, imágenes, sonidos y cualquier tipo de datos, por cable, radio, medios ópticos u otros sistemas electromagnéticos.
Los computadores en Internet pueden usar uno o varios de los siguientes servicios:
• Correo electrónico (e-mail). Permite enviar y recibir mensajes. Provee acceso a grupos de discusión por medio de mensajes.
• Ingreso por red telefónica o remota. Permite que su computador se conecte a otro por medio de una línea telefónica y utilizarlos como si estuvieran el uno junto al otro.
• FTP o Protocolo de Transferencia de Archivos. Permite trasladar rápidamente archivos de gran tamaño desde un computador remoto para verlos o guardarlos en su computador.
• Gopher. Un método antiguo, de solo texto, para tener acceso a documentos de Internet. Gopher esta casi totalmente sumergido en la Red, pero aún se pueden encontrar documentos Gopher enlazados a páginas Web.
• El World Wide Web (WWW o Web). La actividad más grande y de mayor crecimiento en Internet.
Una red de datos permite a un conjunto de computadoras conectadas compartir información y aplicaciones de software. Esta conexión se realiza, utilizando elementos de Hardware específicos para realizar esta tarea. Los medios físicos que se utilizan para conectar las computadoras que hacen parte de la red pueden ser inalámbricos o no inalámbricos (de cableado). Cuando interconectamos muchas redes de datos o una gran cantidad de redes de datos y en ellas se encuentra contenido basado en el protocolo HTML, decimos que tenemos una red de redes, como lo es Internet.
Para que la conexión a Internet exista es necesario contar con:
Conexión física (Dispositivos de Hardware)
Conexión lógica (Protocolos)
Aplicaciones (que interpreten datos y muestren la información)
La conexión física la hacen los elementos de Hardware tales como las tarjetas de red Ethernet, que utilizan cables para la conexión (cable UTP) , y las tarjetas de red Wireless que no usan cables sino ondas para la transferencia de datos.
La conexión lógica está conformada por los protocolos que permiten la transferencia de datos y la interpretación de los mismos. Ejemplo de ellos son los protocolos TCP/IP para ejecutar la conexión a Internet y la transferencia de datos, y el protocolo FTP para la transferencia de archivos desde un servidor y Las aplicaciones que permiten la correcta visibilidad de la información son llamados navegadores, entre los más populares, se encuentran los programas Internet Explorer, Mozzilla Firefox, Opera, Google Chrome, Safari. Estos programas interpretan el lenguaje HTML y otros plug-ins para mostrarle al usuario la información como textos, videos, imágenes, sonidos, animaciones, etc.
como la Internet es un medio para transmitir datos ocurre que el PC es propenso a adquirir VIRUS por tanto es necesario tener instalado un antivirus en cada equipo.
Antivirus. Es un programa cuya función es prevenir, detectar y eliminar virus y software malicioso como spyware, troyanos, etc.Habitualmente un antivirus se carga en la memoria y permanece allí para analizar todos los archivos que se ejecutan en el PC, comprobando que no están infectados con software malicioso. Cuando se detecta este tipo de software malicioso, el antivirus nos da varias opciones, como por ejemplo, poner el archivo en cuarentena, eliminarlo, renombrarlo o ignorar las opciones y no tomar ninguna decisión.

Existen muchos conceptos o términos que se utilizan en el lenguaje de las redes e Internet, por lo tanto es necesario que se mencionen los más usuales a continuación se definen los siguientes:
Dirección electrónica: las direcciones electrónicas son simplemente una serie de caracteres que permiten al usuario ubicar el contenido de un sitio Web específico, el cual se encuentra alojado o almacenado en un servidor.
FTP: Acrónimo de File Transfer Protocol, o protocolo de transferencia de archivos que se utiliza en Internet y otras redes para transmitir archivos entre servidores o entre un usuario y un servidor. Entre sus características tenemos: Transmite sin errores, dispone de un sistema de conexión de datos, maneja un código de redundancia de datos y tiene la capacidad de retomar la descarga en caso de una conexión fallida.
Hipervínculo: se conoce como enlace, son referencias entre varias páginas que se encuentran en la red Internet.
HTML. Acrónimo de HyperText Markup Language, lenguaje de marcas de hipertexto. En un documento HTML hay etiquetas que indican los atributos del texto (negrita, centrado...). Otras indican al sistema cómo debe responder a eventos que genere el usuario, por ejemplo, que después de que el usuario señale con el mouse un icono que representa una película, se ejecute el programa que reproduce vídeo en formato digital. La etiqueta más importante es la que indica un vínculo (link), que puede contener como destinatario otro lugar del mismo documento o el URL de otro documento; este último puede residir en el mismo lugar de la Web que el documento actual o en cualquier otro ordenador de WWW. El usuario se desplaza de documento en documento seleccionando estos vínculos con el mouse.
HTTP: Es un acrónimo de HyperText Transfer Protocol, ó (protocolo de transferencia de hipertexto). Protocolo encargado de encontrar los sitios Web de acuerdo a las direcciones electrónicas escritas por el usuario en la opción de dirección de un navegador, es decir, se utiliza en las transferencias de información de páginas en Internet, de tal forma que puedan ser visualizadas en un navegador.
Portal: El término "portal" se refiere a un sitio web que se usa como punto de partida para visitar otros sitios; los portales generalmente buscan formar comunidades en la localidad geográfica donde operan. Los portales suelen incluir diversos servicios; por mencionar algunos:
• Directorios de otros sitios web
• Herramientas para búsqueda en el web
• Noticias
• Horóscopos
• Foros de pláticas o chat
• Información del clima, de la bolsa, telefónica, mapas y guías turísticas
• E-mail gratuito
• Personalización de información, etc.
Servidor: Computador de gran capacidad de almacenamiento y procesamiento de información, que gestiona las tareas pesadas como la clasificación y enrutamiento del correo, mantenimiento de los sitios y servicio de páginas Web a los clientes.
URL: acrónimo de Universal Resource Locator (localizador universal de recursos), método de identificación de documentos o lugares en Internet, que se utiliza principalmente en World Wide Web (WWW). Un URL o también dirección electrónica, es una cadena de caracteres que identifica el tipo de documento, el computador, el directorio y los subdirectorios en donde se encuentra el documento y su nombre
NETWORKING:
Las redes
sociales son estructuras
sociales compuestas de grupos de personas, las cuales están
conectadas por uno o varios tipos de relaciones, tales como amistad, parentesco,
intereses comunes o que comparten conocimientos, e ideas de libre expresión.
Puede haber muchos tipos de lazos entre los nodos. La investigación
multidisciplinar ha mostrado que las redes sociales operan en muchos niveles,
desde las relaciones de parentesco hasta las relaciones de organizaciones a
nivel estatal (se habla en este caso de Redes políticas),
desempeñando un papel crítico en la determinación de la agenda política y el
grado en el cual los individuos o las organizaciones alcanzan sus objetivos o
reciben influencias.
El Análisis de redes sociales (relacionado con la teoría de redes) ha emergido como una
metodología clave en las modernas Ciencias Sociales, entre las que se
incluyen la sociología, la antropología, la psicología social,
la economía, la geografía, las Ciencias políticas,
la cienciometría,
los estudios de comunicación, estudios
organizacionales y la sociolingüística.
También ha ganado un apoyo significativo en la física y la biología entre otras.
En el lenguaje cotidiano se ha utilizado libremente
la idea de "red social"durante más de un siglo para
denotar conjuntos complejos de relaciones entre miembros de los sistemas
sociales en todas las dimensiones, desde el ámbito interpersonal hasta el
internacional. En 1954, el antropólogo de la Escuela de Manchester J. A. Barnes
comenzó a utilizar sistemáticamente el término para mostrar patrones de lazos,
abarcando los conceptos tradicionalmente utilizados por los científicos
sociales: grupos delimitados
(p.e., tribus, familias) y categorías sociales (p.e., género,
etnia). Académicos como S.D. Berkowitz, Stephen Borgatti, Ronald Burt, Kathleen Carley, Martin Everett,
Katherine Faust, Linton Freeman, Mark Granovetter, David
Knoke,David Krackhardt, Peter
Marsden, Nicholas Mullins, Anatol Rapoport, Stanley
Wasserman, Barry Wellman, Douglas R. White y Harrison White expandieron
el uso del análisis de redes sociales sistemático.1
El análisis de redes sociales ha pasado de ser una
metáfora sugerente para constituirse en un enfoque analítico y un paradigma,
con sus principios teóricos, métodos de software para análisis de redes
sociales y líneas de investigación propios. Los analistas estudian la
influencia del todo en las partes y viceversa, el efecto producido por la
acción selectiva de los individuos en la red; desde la estructura hasta la
relación y el individuo, desde el comportamiento hasta la actitud. Como se ha
dicho estos análisis se realizan bien en redes completas, donde los lazos son
las relaciones específicas en una población definida, o bien en redes
personales (también conocidas como redes egocéntricas, aunque no son
exactamente equiparables), donde se estudian "comunidades
personales".2 La distinción entre redes
totales/completas y redes personales/egocéntricas depende mucho más de la
capacidad del analista para recopilar los datos y la información. Es decir,
para grupos tales como empresas, escuelas o sociedades con membrecía, el
analista espera tener información completa sobre quien está en la red, siendo
todos los participantes egos y alteri potenciales. Los estudios
personales/egocéntricos son conducidos generalmente cuando las identidades o
egos se conocen, pero no sus alteri. Estos estudios permiten a los egos aportar
información sobre la identidad de sus alteri y no hay la expectativa de que los
distintos egos o conjuntos de alteri estén vinculados con cada uno de los
otros.
Una red construida a partir de una bola de nieve se
refiere a la idea de que los alteri son identificados en una encuesta por un
conjunto de Egos iniciales (oleada cero) y estos mismos alteri se convierten en
egos en la oleada 1 y nombran a otros alteri adicionales y así sucesivamente
hasta que el porcentaje de alteri nuevos empieza a disminuir. Aunque hay varios
límites logísticos en la conducción de estudios de bola de nieve, hay
desarrollo recientes para examinar redes híbridas, según el cual
egos en redes completas pueden nombrar a alteri que de otro modo no estarían
identificados, posibilitando que éstos sean visibles para todos los egos de la
red.3 La red híbrida, puede ser
valiosa para examinar redes totales/completas sobre las que hay la expectativa
de incluir actores importantes más allá de los identificados formalmente. Por
ejemplo, los empleados de una compañía a menudo trabajan con consultores
externos que son parte de una red que no pueden definir totalmente antes de la
recolección de datos.
En el análisis de redes sociales, se distinguen
varias tendencias analíticas
No se parte de la hipótesis de que los grupos son
los bloques en la sociedad: el enfoque está abierto a estudiar sistemas
sociales menos definidos, desde comunidades no locales, hasta enlaces
a través de websites.
En lugar de tratar a los individuos (personas,
organizaciones, estados) como unidades discretas de análisis, se centra en cómo
la estructura de las relaciones afecta a los individuos y sus relaciones.
En contraste con los análisis que asumen que la
socialización de las normas determina el comportamiento, el análisis de redes
se utiliza para observar el grado en que la estructura y composición de las
relaciones entre los individuos afectan a las normas.
La forma de una red social ayuda
a determinar la utilidad de la red para sus individuos. Las redes más pequeñas
y más estrictas, pueden ser menos útiles para sus miembros que las redes con
una gran cantidad de conexiones sueltas (vínculo
débil) con personas fuera de la red principal. Las redes más
abiertas, con muchos vínculos y relaciones sociales débiles, tienen más
probabilidades de presentar nuevas ideas y oportunidades a sus miembros que las
redes cerradas con muchos lazos redundantes. En otras palabras, un grupo de
amigos que sólo hacen cosas unos con otros ya comparten los mismos
conocimientos y oportunidades. Un grupo de individuos con conexiones a otros
mundos sociales es probable que tengan acceso a una gama más amplia de
información. Es mejor para el éxito individual tener conexiones con una
variedad de redes en lugar de muchas conexiones en una sola red. Del mismo
modo, los individuos pueden ejercer influencia o actuar como intermediadores en
sus redes sociales, de puente entre dos redes que no están directamente
relacionadas (conocido como llenar huecos estructurales).5
El poder de análisis de redes
sociales estriba en su diferencia de los estudios tradicionales en las Ciencias
Sociales, que asumen que los atributos de cada uno de los actores -ya sean
amistosos o poco amistosos, inteligentes o tontos, etc- es lo que importa. El
análisis de redes sociales produce una visión a la vez alternativa y complementaria,
en la cual los atributos de los individuos son menos importantes que sus
relaciones y sus vínculos con otros actores dentro de la red. Este enfoque ha
resultado ser útil para explicar muchos fenómenos del mundo real, pero deja
menos espacio para la acción individual y la capacidad de las personas para
influir en su éxito, ya que gran parte se basa en la estructura de su red.
Las redes sociales también se han
utilizado para examinar cómo las organizaciones interactúan unas con otras,
caracterizando las múltiples conexiones informales que vinculan a los
ejecutivos entre si, así como las asociaciones y conexiones entre los empleados
de diferentes organizaciones. Por ejemplo, el poder dentro de las
organizaciones, a menudo proviene más del grado en que un individuo dentro de
una red se encuentra en el centro de muchas relaciones, que de su puesto de
trabajo real. Las redes sociales también juegan un papel clave en la
contratación, en el éxito comercial y en el desempeño laboral. Las redes son formas
en las cuales las empresas recopilan información, desalientan la competencia, y connivencia en la fijación de precios
o políticas
Historia del análisis de redes sociales
Linton Freeman ha escrito la
historia del progreso de las redes sociales y del análisis de redes sociales.
Los precursores de las redes
sociales, a finales del siglo XVIII incluyen a Émile Durkheim y a Ferdinand Tönnies.
Tönnies argumentó que los grupos sociales pueden existir bien como lazos
sociales personales y directos que vinculan a los individuos con aquellos con
quienes comparte valores y creencias (gemeinschaft), o bien como
vínculos sociales formales e instrumentales (gesellschaft).Durkheim aportó una explicación no
individualista al hecho social, argumentando que los fenómenos sociales surgen cuando
los individuos que interactúan constituyen una realidad que ya no puede
explicarse en términos de los atributos de los actores individuales. Hizo
distinción entre una sociedad tradicional -con "solidaridad
mecánica"- que prevalece si se minimizan las diferencias individuales; y
una sociedad moderna -con "solidaridad orgánica"- que desarrolla
cooperación entre individuos diferenciados con roles independientes.
Por su parte, Georg Simmel a comienzos del siglo XX,
fue el primer estudioso que pensó directamente en términos de red social. Sus
ensayos apuntan a la naturaleza del tamaño de la red sobre la interacción y a
la probabilidad de interacción en redes ramificadas, de punto flojo, en lugar
de en grupos.
Después de una pausa en las
primeras décadas del siglo XX, surgieron tres tradiciones principales en las
redes sociales. En la década de 1930, Jacob
L. Moreno fue pionero en el registro sistemático y en el
análisis de la interacción social de pequeños grupos, en especial las aulas y
grupos de trabajo (sociometría),
mientras que un grupo de Harvard liderado
por W. Lloyd
Warner y Elton Mayoexploró
las relaciones interpersonales en el trabajo. En 1940, en su discurso a los
antropólogos británicos, A.R. Radcliffe-Brown instó
al estudio sistemático de las redes.8 Sin embargo, tomó unos 15 años
antes de esta convocatoria fuera seguida de forma sistemática.
El Análisis de redes sociales se
desarrolló con los estudios de parentesco de Elizabeth Bott en Inglaterra entre los años 1950, y con
los estudios de urbanización del
grupo de antropólogos de la Universidad de
Manchester (acompañando a Max Gluckman y después aJ.
Clyde Mitchell) entre los años 1950 y 1960, investigando redes
comunitarias en el sur de África, India y
el Reino Unido. Al mismo tiempo, el
antropólogo británico Nadel
SF Nadel codificó una teoría de la estructura social que
influyó posteriormente en el análisis de redes.
Entre los años 1960 y 1970, un
número creciente de académicos trabajaron en la combinación de diferentes temas
y tradiciones. Un grupo fue el de Harrison
White y sus estudiantes en el Departamento de Relaciones
Sociales de la Universidad de
Harvard: Ivan Chase,Bonnie
Erickson, Harriet
Friedmann, Mark Granovetter, Nancy Howell, Joel
Levine, Nicholas
Mullins, John
Padgett, Michael
Schwartz yBarry
Wellman. Otras personas importantes en este grupo inicial fueron
Charles Tilly, quien se enfocó en redes en sociología política y movimientos
sociales, y Stanley Milgram,
quien desarrolló la tesis de los "seis grados de separación". Mark Granovetter y Barry
Wellman están entre los antiguos estudiantes de White que han elaborado y
popularizado el análisis de redes sociales.
Pero el grupo de White no fue el
único. En otros lugares, distintos académicos desarrollaron un trabajo
independiente significativo: científicos sociales interesados en aplicaciones
matemáticas de la Universidad
de California Irvine en torno a Linton Freeman, incluyendo a John Boyd, Susan
Freeman, Kathryn
Faust, A.
Kimball Romney y Douglas
White; analistas cuantitativos de laUniversidad de
Chicago, incluyendo a Joseph Galaskiewicz, Wendy Griswold, Edward
Laumann, Peter Marsden, Martina Morris, y John Padgett; y académicos de la
comunicación en la Universidad de
Michigan, incluyendo a Nan Lin y Everett Rogers. En la década de 1970, se
constituyó un grupo de sociología sustantiva orientada de la Universidad de
Toronto, en torno a antiguos estudiantes de Harrison White: S.D.
Berkowitz, Harriet
Friedmann, Nancy
Leslie Howard, Nancy
Howell, Lorne
Tepperman y Barry
Wellman, y también los acompañó el señalado modelista y teorético de los
juegos Anatol
Rapoport. En términos de la teoría, criticó el individualismo
metodológico y los análisis basados en grupos, argumentando que ver el mundo
desde la óptica de las redes sociales ofrece un apalancamiento más analítico.
REDES
SOCIALES EN INTERNET
El software germinal de las redes sociales parte de
la teoría de los Seis grados de separación, según la cual
toda la gente del planeta está conectada a través de no más de seis personas.
De hecho, existe una patente en EEUU conocida como six degrees patent por
la que ya han pagado Tribe y LinkedIn. Hay otras muchas patentes que protegen
la tecnología para automatizar la creación de redes y las aplicaciones
relacionadas con éstas.
Estas redes sociales se basan en la teoría de los
seis grados, Seis grados de separación es la teoría de que cualquiera en la
Tierra puede estar conectado a cualquier otra persona en el planeta a través de
una cadena de conocidos que no tiene más de seis intermediarios. La teoría fue
inicialmente propuesta en 1929 por el escritor húngaro Frigyes
Karinthy en una corta historia llamada Chains. El concepto está
basado en la idea que el número de conocidos crece exponencialmente con el
número de enlaces en la cadena, y sólo un pequeño número de enlaces son
necesarios para que el conjunto de conocidos se convierta en la población
humana entera.
El término red social es acuñado principalmente a
los antropólogos ingleses John Barnes y Elizabeth Bott, ya que,
para ellos resultaba imprescindible cosiderar lazos externos a los famliares,
residenciales o de pertenencia a algún grupo social.
Los fines que han motivado la creación de las
llamadas redes sociales son varios, principalmente, es el diseñar un lugar de
interacción virtual, en el que millones de personas alrededor del mundo se
concentran con diversos intereses en común.
Recogida también en el libro "Six Degrees: The
Science of a Connected Age” del sociólogo Duncan Watts, y que
asegura que es posible acceder a cualquier persona del planeta en tan solo seis
“saltos”.
Según esta Teoría, cada persona conoce de media,
entre amigos, familiares y compañeros de trabajo o escuela, a unas 100
personas. Si cada uno de esos amigos o conocidos cercanos se relaciona con
otras 100 personas, cualquier individuo puede pasar un recado a 10.000 personas
más tan solo pidiendo a un amigo que pase el mensaje a sus amigos.
Estos 10.000 individuos serían contactos de segundo
nivel, que un individuo no conoce pero que puede conocer fácilmente pidiendo a
sus amigos y familiares que se los presenten, y a los que se suele recurrir
para ocupar un puesto de trabajo o realizar una compra. Cuando preguntamos a
alguien, por ejemplo, si conoce una secretaria interesada en trabajar estamos
tirando de estas redes sociales informales que hacen funcionar nuestra
sociedad. Este argumento supone que los 100 amigos de cada persona no son
amigos comunes. En la práctica, esto significa que el número de contactos de
segundo nivel será sustancialmente menor a 10.000 debido a que es muy usual
tener amigos comunes en las redes sociales.
Si esos 10.000 conocen a otros 100, la red ya se
ampliaría a 1.000.000 de personas conectadas en un tercer nivel, a 100.000.000
en un cuarto nivel, a 10.000.000.000 en un quinto nivel y a 1.000.000.000.000
en un sexto nivel. En seis pasos, y con las tecnologías disponibles, se podría
enviar un mensaje a cualquier lugar individuo del planeta.
Evidentemente cuanto más pasos haya que dar, más
lejana será la conexión entre dos individuos y más difícil la comunicación.
Internet, sin embargo, ha eliminado algunas de esas barreras creando verdaderas
redes sociales mundiales, especialmente en segmento concreto de profesionales,
artistas, etc.
En la década de los 50, Ithiel de Sola Pool (MIT)
y Manfred Kochen (IBM) se propusieron demostrar la teoría matemáticamente.
Aunque eran capaces de enunciar la cuestión "dado un conjunto de N
personas, ¿cual es la probabilidad de que cada miembro de estos N estén
conectados con otro miembro vía k1, k2, k3,..., kn enlaces?", después de
veinte años todavía eran incapaces de resolver el problema a su propia
satisfacción.
En 1967, el psicólogo estadounidense Stanley
Milgram ideó una nueva manera de probar la Teoría, que él llamó
"el problema del pequeño mundo". El experimento del mundo pequeño de Milgram
consistió en la selección al azar de varias personas del medio oeste
estadounidense para que enviaran tarjetas postales a un extraño situado en
Massachusetts, situado a varios miles de millas de distancia. Los remitentes
conocían el nombre del destinatario, su ocupación y la localización aproximada.
Se les indicó que enviaran el paquete a una persona que ellos conocieran
directamente y que pensaran que fuera la que más probabilidades tendría, de
todos sus amigos, de conocer directamente al destinatario. Esta persona tendría
que hacer lo mismo y así sucesivamente hasta que el paquete fuera entregado
personalmente a su destinatario final.
Aunque los participantes esperaban que la cadena
incluyera al menos cientos de intermediarios, la entrega de cada paquete
solamente llevó, como promedio, entre cinco y siete intermediarios. Los
descubrimientos de Milgram fueron publicados en "Psychology Today" e
inspiraron la frase seis grados de separación.
En The social software weblog han agrupado 120
sitios web en 10 categorías y QuickBase también ha elaborado un completo cuadro
sobre redes sociales en Internet.
El origen de las redes sociales se remonta, al
menos, a 1995, cuando Randy Conrads crea el sitio web classmates.com. Con esta
red social se pretende que la gente pueda recuperar o mantener el contacto con
antiguos compañeros del colegio, instituto, universidad, etcétera.
En 2002 comienzan a aparecer sitios web promocionando
las redes de círculos de amigos en línea cuando el término se empleaba para
describir las relaciones en las comunidades
virtuales, y se hizo popular en 2003 con la llegada
de sitios tales como MySpace oXing. Hay más de 200 sitios de redes sociales, aunque
Friendster ha sido uno de los que mejor ha sabido emplear la técnica del
círculo de amigos. La
popularidad de estos sitios creció rápidamente y grandes compañías han entrado
en el espacio de las redes sociales en Internet. Por ejemplo, Google lanzó
Orkut el 22 de enero de 2004. Otros buscadores
como KaZaZZ! y Yahoo crearon redes sociales en 2005.
En estas comunidades, un número inicial de
participantes envían mensajes a miembros de su propia red social invitándoles a
unirse al sitio. Los nuevos participantes repiten el proceso, creciendo el
número total de miembros y los enlaces de la red. Los sitios ofrecen
características como actualización automática de la libreta de direcciones,
perfiles visibles, la capacidad de crear nuevos enlaces mediante servicios
de presentación y otras maneras de conexión social en línea. Las redes
sociales también pueden crearse en torno a las relaciones comerciales.
Las herramientas informáticas para potenciar la
eficacia de las redes sociales online (‘software social’), operan en tres
ámbitos, “las 3Cs”, de forma cruzada:
§
Comunicación
(nos ayudan a poner en común conocimientos).
§
Comunidad
(nos ayudan a encontrar e integrar comunidades).
§
Cooperación
(nos ayudan a hacer cosas juntos).
El establecimiento combinado de contactos (blended
networking) es una aproximación a la red social que combina elementos en
línea y del mundo real para crear una mezcla. Una red social de personas es
combinada si se establece mediante eventos cara a cara y una comunidad en
línea. Los dos elementos de la mezcla se complementan el uno al otro. Vea
también computación social.
Las redes sociales continúan avanzando en Internet a
pasos agigantados, especialmente dentro de lo que se ha denominado Web 2.0y Web 3.0,
y dentro de ellas, cabe destacar un nuevo fenómeno que pretende ayudar al
usuario en sus compras en Internet: las redes sociales de compras.
Las redes sociales de compras tratan de
convertirse en un lugar de consulta y compra. Un espacio en el que los usuarios
pueden consultar todas las dudas que tienen sobre los productos en los que
están interesados, leer opiniones y escribirlas, votar a sus productos
favoritos, conocer gente con sus mismas aficiones y, por supuesto, comprar ese
producto en las tiendas más importantes con un solo clic. Esta tendencia tiene
nombre, se llama Shopping 2.0.
WORLD WIDE WEB, NAVEGADORES
En informática, la World Wide Web (WWW) o Red informática mundial es un sistema de distribución de información basado en hipertexto o hipermedios enlazados y accesibles a
través de Internet.
Con unnavegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener texto,imágenes, vídeos u otros contenidos multimedia, y navega a través de ellas
usando hiperenlaces.
La Web fue creada alrededor
de 1989 por el inglés Tim Berners-Lee con la ayuda del belga Robert Cailliaumientras trabajaban en el CERN en Ginebra, Suiza,
y publicado en 1992.
Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de
estándares Web (como los lenguajes de
marcado con los que se
crean las páginas web), y en los últimos años ha abogado por su visión de una Web semántica.
WorldWideWeb es un navegador web y editor de páginas web en modo gráfico para el sistema operativo NEXTSTEP; es reconocido como la primera aplicación informática de este tipo. Tiempo después de su lanzamiento fue
renombrado Nexus para evitar confusiones con el
concepto de World Wide Web.
Comenzó
el desarrollo de WorldWideWeb durante el mes de octubre del año 1990 usando una
computadora NeXTcube mientras trabajaba para el Consejo
Europeo para la Investigación Nuclear (CERN). La primera versión de utilidad
práctica fue presentada el 25 de diciembre de 1990.
El 26 de
febrero de 1991 se hizo la presentación oficial de WorldWideWeb junto a algunos
conceptos de World Wide Web.
En marzo del
mismo año, el programa se distribuyó entre los compañeros de Berners-Lee en el
CERN. En agosto, el público en general pudo
acceder a la aplicación a través de los grupos de noticias.
Más gente se
sumó al proyecto, incluyendo a Bernd Pollermann, Robert Cailliau, Jean-François Groff, y Nicola Pellow,
desarrollador del line-mode
browser. Más tardé, Berners-Lee y Groff adaptaron varios de los
componentes de WorldWideWeb allenguaje de
programación C para
desarrollar la API libwww.
El 30 de abril
de 1993 el CERN liberó el código fuente de WorldWideWeb bajo el dominio público, convirtiéndolo en software libre. Inicialmente Berners-Lee
consideró liberarlo bajo la GNU GPL pero finalmente escogió el dominio
público para asegurar un mayor soporte corporativo.3
§
el Identificador
de Recurso Uniforme (URI), que es un sistema universal para
referenciar recursos en la Web, como páginas web,
§
el Protocolo
de Transferencia de Hipertexto (HTTP), que especifica cómo
se comunican el navegador y el servidor entre ellos,
§
el Lenguaje
de Marcado de Hipertexto (HTML), usado para definir la estructura y contenido de
documentos de hipertexto,
§
el Lenguaje
de Marcado Extensible (XML), usado para describir la estructura de los documentos de
texto.
Berners Lee dirige desde 2007 el World Wide Web Consortium (W3C), el
cual desarrolla y mantiene esos y otros estándares que permiten a los
ordenadores de la Web almacenar y comunicar efectivamente diferentes formas de
información.
Anexo video de La unidad 2
No hay comentarios:
Publicar un comentario