Textos del Area Telemática
Item
Título
Textos del Area Telemática
Descripción
Colección de textos propios como apropiados para el debate y formación del Area telemática del Centro Social, espacio de formación y acción en tecnopolítica
Fuente
Fecha
Derechos
Attribution 4.0 International (CC BY 4.0) - https://creativecommons.org/licenses/by/4.0/
Titular de los Derechos
Hacer Laboratorio
Resumen
Materiales del Area Telemática del CSOA El Laboratorio
extracted text
AREA TELEMÁTICA CSOA EL LABORATORIO
ampliar la ofensiva significa radicalizar la insubordinación a cualquier jerarquía ejercer nuestra
creatividad destructiva contra la sociedad del espectáculo sabotear las mercancías que sabotean
nuestras vidas reunirse en asambleas eligiendo delegados siempre revocables por la base conectar
todos los lugares de lucha no descuidar ninguno de los medios técnicos útiles para la comunicación
liberada dar un valor de uso directo a todo lo que tiene valor de cambio organizar la Autodefensa de
los territorios conquistados...
Nanni Balestrini, Los invisibles
[Textos][Proyectos][Enlaces]
Textos del Area Telemática
Sobre el área telemática del CSOA El Laboratorio
A vueltas con la conectividad
Algunas consideraciones sobre la tarifa de acceso gratuito y el acceso público
El derecho a leer. Richard Stallman
Por qué el software no debería tener propietarios. Richard Stallman
Una entrevista con Richard Stallman
Pixels
El Proyecto GNU/LInux: El “general intellect” en red
PGP autodefensa digital
FREE KEVIN
El manifiesto hacker
Sobre el Área Telemática del CSOA el Laboratorio
Desde hace algo más de un año, el CSOA el Laboratorio cuenta con una sala de ordenadores y con
algunas personas que tratan de llevar adelante ciertas iniciativas que utilizan la informática y la
aplican a la telecomunicación antagonista. A lo largo de este tiempo el proyecto ha ido alcanzando
cierta consistencia, ha pasado por fases muy diversas y ahora vamos a tratar de hacer un breve
resumen de lo que se ha hecho y de los proyectos en los que andamos.
Lo que se ha hecho
Hasta ahora, se han ido desarrollando en paralelo dos tareas:
poner en funcionamiento y administrar para uso colectivo dos ordenadores, una impresora láser y
un escáner
iniciar proyectos telemáticos específicos, que de momento se ha concretado en la elaboración de la
página web del CSO, la implantación de un servidor linux y de varias terminales (en fase de
desarrollo) conectadas a él, el establecimiento de relaciones políticas con sujetos y colectivos
antagonistas en Internet y la formación de gente que quería aprender a usar los servicios específicos
de Internet.
Desde el primer momento dispusimos de un PC 486 –construido con piezas recicladas de
ordenadores desechados– conectado a Internet a través del proveedor antagonista Nodo50, y así
iniciamos la publicación de la página web del Laboratorio.
Compartimos el correo y alojamos (provisionalmente, pues ya disponen de su propio acceso) a la
Eskalera Karakola en nuestro sitio web y colocamos en Internet todas las actas y material escrito de
lo que dieron de sí las sesiones del II Encuentro Contra el Neoliberalismo en el Laboratorio. Como
el ordenador cada vez se usaba más, y para dar cabida a todo el trasiego que iba adquiriendo su uso
público, se compró e instaló un disco duro adicional de mayor tamaño. También se le amplió la
memoria a 24 MB y se instaló un monitor en color de 15 pulgadas, todo lo cual nos puso en
disposición de llevar a cabo cualquier proceso de maquetación, retoque gráfico y autoedición: se
han autoproducido innumerables panfletos y textos diversos, carteles, trípticos, etc. a lo largo de
este año. También se compró e instaló un tóner para una impresora láser de alta calidad, que permite
imprimir en blanco y negro a calidad de imprenta y a gran velocidad (12 páginas por minuto). Esta
impresora fue donada al Laboratorio por la Mesa de Madrid del II Encuentro que tuvo lugar el
verano pasado.
A principios de este año, a resultas de uno de los numerosos percances eléctricos, se nos quemaron
las fuentes de alimentación del PC y del flamante monitor de 15" :-((.
El proyecto LiNuX
Durante la primavera de este año, comenzamos a dar forma al proyecto linux. El sistema operativo
de libre distribución Linux tiene para nosotr@s un extraordinario interés, técnica y políticamente.
Por el lado técnico, el carácter multiusuario de Linux permite que cada usuari@ tenga su propio
acceso personalizado a las aplicaciones y a Internet, lo que, a parte de dotar de privacidad, impide
que ningún usuari@ pueda desconfigurar el sistema, introducir virus o borrar algo por error, ya que
la administración del sistema y el uso de la máquina está totalmente separado. Por otro lado, la
multitarea real de Linux nos va a permitir que varias personas desde distintas terminales puedan
conectarse simultáneamente a Internet, desatascando el uso del correo en un solo ordenador.
Políticamente Linux posee también un enorme interés. Tanto el sistema de desarrollo –non profit,
cooperativo y abierto a través de Internet– como el mundillo del free-software en que se está
desarrollando, le convierten en una línea de fuga delgeneral intellect, probablemente la única
alternativa real al aplastante peso de las multinacionales del software propietario –a la cabeza del
cual está Microsoft y su Windows, pero no sólo– en el uso de los ordenadores personales. Una gran
parte de la gente que mantiene una actitud resistente en la red y se plantea un uso no comercial del
ordenador, está implicada de un modo u otro en el desarrollo del proyecto GNU/Linux.
El proyecto de Área Telemática
1) La página web: una página web es una publicación electrónica en Internet. Es como una revista o
un fanzine que puede ser visualizado e imprimido desde cualquier ordenador del mundo que
disponga de una conexión a la red de redes, pero posee además rasgos muy particulares que la
hacen mucho más potente que cualquier publicación convencional. Una página web puede
vincularse a cualquier otra a través de hipertextos (enlaces o conexiones multimedia), se puede
modificar y actualizar constantemente y literalmente no tiene límites mediáticos: pueden colocarse
textos y fotos, como en cualquier revista, pero en estructuras no lineales, rizómaticas; se pueden
incluir también grabaciones de audio, música, secuencias de vídeo, animaciones e incluso conectar
en directo una radio libre para que pueda escucharse en ese mismo momento desde cualquier lugar
(como hace Radio Sherwood en Italia). Sus ejemplares nunca se agotan, se pueden actualizar
constantemente, no se gasta papel y su coste de producción es igual a cero por lo que se puede
distribuir gratuitamente. Permite la interacción de quien la lee, enviando cartas, comentarios,
colaboraciones en el momento... Y es, por encima de todo, una declaración de existencia que,
rompiendo las fronteras, permite dar a conocer nuestro querer vivir a aquella parte de la comunidad
virtual que a través de Internet comunica, al igual que hacemos nosotr@s, sus sueños, sus deseos y
sus proyectos subversivos/alternativos.
Tener una página web o un ordenador en un centro social no es una gran novedad. La web no es ni
siquiera el uso más interesante de Internet, todavía está dentro de un esquema más o menos pasivo
de navegación/consulta que podría llegar a parecerse en ocasiones al zapeo televisivo. Internet es un
fenómeno complejo que no se deja explicar ni capturar fácilmente, ni por quienes –quién sabe si
arrastrad@s por el culto posmoderno a las nuevas tecnologías– lo exaltan acríticamente como un
espacio liberado que el poder no puede controlar, ni por quienes –desde ideologías literalmente
arqueológicas y, por tanto, reaccionarias en sentido estricto– sólo ven alienación, amenaza y
conspiración paranoica del Gran Hermano en la red de redes en particular y en las nuevas
tecnologías en general. Si de una parte es evidente el enorme interés que el mando y los fenómenos
de globalización capitalista tienen en el paradigma comunicacional que representa Internet, por otro
–a poco que un@ se mueva sin prejuicios y de un modo (inter)activo en el ciberespacio–, también
se hacen visibles las realidades antagonistas que atraviesan el multiverso de los nuevos media.
Dicho de otro modo, Internet no sólo hace real el mercado global, la empresa difusa de la
globalización y la economía-mundo, en fin, no sólo efectúa el imaginario y pone en juego los
simulacros del dominio capitalista, sino que también es un espacio liso donde poner en red flujos de
inteligencia colectiva, donde activar intercambios, cooperación y sinergias de cultura, saber y
conocimiento.
2) OtraVista: En este último sentido –poner en red flujos de cooperación antagonista– va el
proyecto OV (OtraVista) o UCN (Universal Counter Network) que vamos a intentar desarrollar con
algun@s compañer@s de la ECN (red telemática antagonista) de Italia, Francia y EE.UU. La idea
consiste en desarrollar un buscador de recursos en la red, alternativo a los buscadores
convencionales (AltaVista, Yahoo...), que recoja y haga visible las realidades autogestionadas que
están en torno a los centros sociales y los colectivos metropolitanos y que permita hacer búsquedas
con criterios políticos y de contenido diferente a los buscadores existentes. Señalar ahora
únicamente que el proyecto es muy ambicioso tanto técnica como políticamente –los buscadores
poseen una extraordinaria importancia estrátegica en la red, ellos hacen que un determinado sitio
sea visible o invisible– y que nosotr@s acabamos de empezar a movernos en un medio en el cual
algun@s compañer@s tienen ya varios años de experiencia (como es el caso de la ECN).
3) La batalla por una comunicación "otra": deseamos entrar de lleno en el debate telemático: en el
ciberespacio se efectúan y a la vez quedan ampliamente desbordados los viejos presupuestos de la
contrainformación –interactividad, multidireccionalidad de la comunicación, horizontalidad, no
mediación...–. Reivindicar la libertad de comunicación y buscar la visibilidad significa ampliar la
perspectiva de la contrainformación clásica e irnos agenciando un acceso real a todo el sistema
massmediático: televisiones, radios, periódicos, redes... Todo esto, claro, sin trascender ni
representar, o sea, sin salirnos de la experiencia de la comunidad y de los territorios concretos en
que ésta tiene lugar, pero a la vez rompiendo las fronteras que los viejos Estados nos imponen por
todas partes y produciendo agenciamientos con gentes muy alejadas geográficamente de nosotr@s
pero que la red nos aproxima increíblemente. Nos interesa especialmente popularizar el uso de
lacriptografía –la técnica para cifrar mensajes de modo que nadie salvo a quien van dirigidos pueda
leerlos– como la llave que asegura la privacidad, el anonimato y la libertad individual en la
sociedad de la información frente a los (vanos) intentos de los Estados y las transnacionales por
controlar el flujo comunicativo (información, software...) que circula por la red. También caben
aquí los virus y todo el arsenal de software y conocimientos disponibles en la red para la
ciberguerrilla que hackers y ciberpunks llevan a cabo penetrando en sistemas de seguridad,
pinchando y alterando la conmutación telefónica (phreaking) y practicando el caos y el sabotaje
sobre los bancos de datos de gobiernos y empresas capitalistas.
Sobre los usos del Área Telemática
La idea es que las mañanas estén reservadas al desarrollo de los proyectos del área telemática: en
particular del proyecto Linux.
Por las tardes, habrá un turno de 5 a 7 en el que una persona cada día se encargará del
mantenimiento de la sala, contestará el correo, organizará e imprimirá los mails e informaciones que
llegan cada día al buzón del laboratorio, participará en los grupos de noticias sobre okupación y, en
general, mantendrá los contactos políticos y difundirá las informaciones que se generen en el
laboratorio. Por razones obvias, para instalar o desinstalar cualquier aplicación, borrar archivos o
modificar la configuración hay que hablar primero con la gente del área telemática, que no es un
colectivo cerrado sino el espacio donde nos encontramos la gente del laboratorio interesada en
organizar y llevar adelante estas cuestiones.
A partir de las siete de la tarde, habrá un uso libre de las máquinas, salvo que alguien reserve algún
uso específico, comunicándolo previamente a quien haga el turno ese día.
Julio 1998
A vueltas con la conectividad gratuita
"el movimiento del software libre es aún reducido y joven. Pero el ejemplo de las cadenas de radio
mantenidas por los oyentes de este país (EE.UU.) muestra que es posible mantener una gran
actividad sin forzar a que cada usuario pague."
Richard M. STALLMAN
La decisión de las operadoras de ofrecer conexiones gratuitas al público ha levantado un cierto
revuelo -especialmente entre quienes centraban su actividad en dar ese acceso-, con opiniones que
oscilan entre diversos grados de temor y desconfianza. Hay quien piensa que esta medida no es más
que una guerra entre lobos por disputarse el mercado a base de ofertas; otros ven una maniobra de
Timofónica por hundir a los pequeños proveedores de acceso a Internet, y algunos más lo resumen
como un zarpazo más del neoliberalismo dominante. Hasta ahora, no hemos oído voces que nos
recuerden que el "acceso para tod@s" y la conectividad gratuita es una antigua premisa hacker, un
prerrequisito sin el cual la construcción del ciberespacio pierde su dimensión social, se convierte en
algo elitista y sólo al alcance de l@s afortunad@s que disponen de conexión.
Es indudable que esta medida va a afectar negativamente a las empresas que hasta ahora se
dedicaban a cobrar por el acceso a la red de redes. Estas empresas -conocidas como CPI o
proveedores de acceso- contrataban el cable a las operadoras y luego ofrecían conectividad a los
usuarios finales. Es decir, Telefónica compartía un trozo del pastel con los CPI y a cambio les
cobraba una barbaridad por ello y les derivaba el trabajo sucio -implantación técnica de la red,
formación de un parque de usuarios, atención al cliente...-; los CPI, por su parte, cobraban por un
servicio -la conexión a la red- que en otros países o bien se ofrece gratis o bien facturan
directamente las operadoras telefónicas. Esto generó una extraordinaria proliferación de CPI -estaba
al alcance de cualquier iniciativa, empresarial o sin ánimo de lucro, contratar una frame-relay y
dedicarse a dar conectividad-, hasta el punto de que en el Estado español operan más del 10%
(alrededor de 800) del total mundial! de CPI, cuando hace sólo cinco años -antes de la aparición de
Infovía- no llegaban a diez los proveedores en todo el Estado español.
Aquell@s que desconfían del paso que han dado las operadoras telefónicas sí llevan razón al
preguntarse cómo es posible tanta generosidad precisamente en unas corporaciones cuyo rasgo
característico ha venido siendo la extorsión en régimen de monopolio, cuando no el robo puro y
duro al ciudadano de a pie (*). Es más que probable que este tipo de medidas formen parte de una
tendencia global para facilitar al máximo el acceso a la ciudadanía, ya que con ello confían en
mercantilizar definitivamente Internet. Maniobra neoliberal y capitalista, cierto, pero al precio de la
socialización gratuita del acceso al ciberespacio. No es poca cosa. Como decíamos más arriba, el
"acceso para tod@s" probablemente es el principal requisito para el crecimiento de un movimiento
social en el ciberespacio y para cualquier proceso de inteligencia colectiva.
Es obvio que el desarrollo de las telecomunicaciones está estrechamente vinculado a los intereses de
los Estados más poderosos y de las grandes corporaciones transnacionales, públicas y privadas.
Pero también es demostrable que la mayor parte de las transformaciones técnicas de estos últimos
años no ha sido decidida por esos entes. El mejor ejemplo de esto es el éxito de la World Wide Web,
cuya invención y desarrollo en los años noventa nada ha tenido que ver con los grandes actores
mediáticos (ni Micro$oft, ni IBM, ni la OTAN ni AT&T ni mucho menos Timofónica o el grupo
PRI$A han decidido nada de esto) y sí con el movimiento social del ciberespacio que lo ha
desarrollado y difundido a su bola y de acuerdo a sus necesidades y a su estilo imprevisible y
distribuido.
Como ha ocurrido otras veces, una consigna izquierdista -"acceso para tod@s"- es recuperada y
acaba convirtiéndose en piedra angular de estrategias mercantiles. Pasó antes con los ordenadores
personales que, no lo olvidemos, fueron ideados y creados por los hackers de los años setenta como
forma de arrebatar la potencia de la informática al control estatal-militar y de las
megacorporaciones privadas. En fin, este movimiento social cooperativo y generoso -las
"comunidades virtuales", el movimiento social del ciberespacio- está acostumbrado a este tipo de
maniobras, y sabe que ha puesto las bases del negocio multimediático. Pero eso no quita que, a la
inversa, y a la vez que lo recupera, el mercado acabe consolidando y haciendo irreversibles los
objetivos de las comunidades virtuales - En este caso, el del acceso gratuito para tod@s-, que hasta
ahora han sabido dar respuesta siempre a cada intento de privatizar y/o censurar la red.
Creemos que hay que dejar de una vez los clásicos lamentos "progres" (por cierto, cada vez más
conservadores) y ser rápid@s, usar y reapropiarse de esos recursos, promover que la gente abra
conexiones gratuitas y las use al máximo, que todo el mundo disponga de un buzón de correo -una
dirección de mail es lo que garantiza la visibilidad individual y la participación activa en el
ciberespacio-, que todo colectivo o centro social tenga una página web. Promover también la
conectividad desde espacios públicos autogestionados -locales de colectivos, centros sociales, casas
okupadas, "ciberkafetas" en los baretos de la peña...-, y reapropiarse también de los accesos
institucionales gratuitos -desde institutos, universidades, curros, bibliotecas, centros culturales o
cívicos, "puntos de información"...
La infraestructura física, antes como ahora, va a seguir en manos de las telefónicas. Muy
posiblemente, llevan razón quienes acusan a Telefónica de dumping y de competencia desleal, pero
no dejan de ser conceptos de quien se mueve en términos de mercado. Si alguien todavía piensa que
lo importante es quién te da el acceso a la red -pequeños CPI o grandes operadoras-, nadie le va a
impedir que alquile una línea, un router y siga dando conectividad a los usuarios. Esa es la lógica
del mercado, no tiene sentido pedirle al monstruo -Timofónica- que sea menos monstruo. Hay que
abrir líneas de fuga, tirar para otro lado.
Pensamos más bien que el problema hay que enmarcarlo en otro modelo que no sea el que manda el
mercado. Para ello son necesarias apuestas que desborden esa lógica. Mas ese cambio de
perspectiva -cambio político al fin y al cabo- no se puede improvisar de la noche a la mañana. Hay
proyectos políticos telemáticos -como bastantes de los que forman la APC-, cuya apuesta telemática
ha consistido básicamente en dar conectividad a l@s colectivos y organizacione sociales; otros, sin
embargo -la ECN sin ir más lejos-, renunciaron a la conectividad desde el primer momento y se
centraron en generar cooperación y trabajo en red. A nosotros nos gustaría seguir explorando esta
última vía: cualquiera que se mueva con criterios antagonistas por el ciberespacio sabe que lo que
hace fuerte e ingobernable a Internet es es su estructura descentralizada, horizontal y flexible: lo
contrario a la concentración o a los portales poderosos.
Nosotr@s no vamos a lamentar ni un segundo la gratuidad del acceso, todo lo contrario, y nos da
igual si es fruto de una guerra de lobos entre compañías o viene impuesto por la propia lógica del
mercado: no hay que olvidar que lo que se da gratis es el acceso pero que sigue pendiente la
reivindicación de la tarifa plana -el pago de un precio fijo y asequible, independientemente del
tiempo de conexión-, cosa que tarde o temprano llegará como ha llegado la gratuidad del acceso
pero, sobre todo, sigue pendiente la gratuidad en el uso de la línea, al menos para usos no
comerciales.
__________
Nota
(*) En efecto, Timofónica pertenece a esa leonina clase de empresas -cuyo paradigma es Micro$oftque ya están por encima del bien y del mal, o sea, fuera de las leyes del mercado y de las leyes a
secas, lo que le permite incluso obtener beneficios enormes de sus propios errores (por ejemplo, las
llamadas fallidas) y defectos funcionales (por ejemplo la exasperante lentitud de los accesos a través
de Infobirria Puzz).
Algunas consideraciones sobre la tarifa de acceso gratuito y el acceso público
Parece que ahora es el momento de plantearse el problema del acceso, la conectividad, desde una
perspectiva de lo político. Obviando que son muchas las iniciativas que han tocado de manera
directa este tema, no podemos dejar de lado que es precisamente en estos días cuando se han
producido los efectos de la liberalización del mercado de las telecomunicaciones, que tanto unos y
otros se han dedicado a pronosticar. Varias operadoras están dando en estos momentos acceso
gratuito a Internet, es de esperar que en el futuro haya mas que den sus servicios a cambio de
¿nada? No, evidentemente no es a cambio de nada, sino a cambio de TODO. Les damos una
identidad, les dejamos que ensanchen sus estadísticas, usamos sus servicios de informacion en
forma de portales, y el larguísimo etc. que se os pueda ocurrir. Esta claro que en primer lugar este
tipo de accesos va a ser de una calidad bastante mala, que donde van a poner tarifas altas para
amortizar sus líneas va a ser en las conexiones de alta velocidad, ya sea por RDSI, ADSL o cable.
No podemos olvidar esta ultima tecnología. El cable sí que va a ser algo imparable, primero porque
es una tecnología totalmente probada -no es el caso de ADSL, que aunque en países como USA está
en uso desde hace algun tiempo, aquí sigue siendo una tecnología poco experimentada-, y con una
fiabilidad absoluta, ya que el cable no se va a 'caer' por la cuenta que les trae; sólo hay que pensar la
de servicios y opciones diferentes de ocio que pretenden meter como para darse cuenta de que no se
la van a jugar, esa es una de las razones por las que esta tardando tanto implantarse en nuestro país.
Segundo el cable posibilita más que ninguna de las demás tecnologías el acceso a traves de cuaquier
otro de los electrodomesticos que tenemos en nuestra casa, que no sea el ordenador. En USA desde
hace ya varios años se puede navegar desde la televisión sin tener que configurar nada, es cierto que
aquie tambien han llegado los "set top box" -que permiten conectarse a internet con una TV y una
línea de telefono, el módem va incorporado en la 'cajita'- pero el uso de esto ha sido mínimo y como
tantos otros inventos ha fracasado. Qué es lo que sucede, pues bien, para que se acabe de implantar
el cable en nuestras casas primero deben instalar toda una red de cable que de servicio a toda la
ciudad (algunas ya lo están desde hace tiempo), y después llevar ese cable hasta el salón de nuestra
casa. En cambio la tecnología ADSL sólo necesita el par de cobre de nuestros telefonos
tradicionales, con lo cual los cambios a nivel de infraestructura son insignificantes (hay que señalar
que el ADSL tiene truco: su caudal de entrada será mucho mayor que el de salida; esa asimetría
permite recibir muchos datos -multimedia- y enviar pocos, reproduciendo el modelo consumista y
pasivo de la televisión). Además de todo esto para dentro de 4 o 5 años nos tienen preparadas
nuevas sorpresas, como son las tecnologías de teléfonos móviles ultrarrápidas, como por ejemplo la
UMTS que permitirá tener unos accesos hasta hoy impensables para una línea que no fuese una
"frame-relay", pero de eso todavía tendremos tiempo de hablar, 4 o 5 años :-)
Con todo este panorama de nuevas tecnologías de las telecomunicaciones que se nos viene encima,
lo difícil en muchos casos es saber qué hacer, e incluso qué decir. Sin entrar ahora a valorar por qué,
se puede decir que el que haya por fin accesos gratuitos a la red es algo en cualquier caso para
alegrarnos. Por otro lado, bien es cierto que esta iniciativa de las operadoras va a generar un proceso
de agrupación como el que se genera en cualquier mercado que se liberaliza, y hay ganan siempre
los mas fuertes y, cómo no, los más grandes. Por eso el que haya acceso gratuito va a acabar con
todos esos pequeños proveedores, que se llevaban, aunque pequeña, una parte del pastel. Esto es
algo que no tiene más que dejarnos indiferentes, ya que todos esos pequeños proveedores no hacían
mas que revender un servicio de comunicaciones, pero esto no hacía en ningún caso que esas
comunicaciones fuesen más libres, más autonomas, y ni siquiera mas baratas en la mayoría de los
casos. Porque no hay que olvidar que aunque pequeñas tambien son empresas, que se mueven sólo
por motivos economicos (con la excepción de los nodos de Ipanex).
Llevamos años trabajando para que la gente se conecte a internet, para que haga un uso social, y es
ahora cuando debemos ser felices porque se ha conseguido. Por quién da igual, ¿o hubiésemos
preferido el Estado?, yo no. Como mas arriba se comenta, esto es una estrategia para hacer que se
conecte a Internet cuanta más gente mejor, y esto sin ningun lugar a dudas a quien beneficia es a la
Red, pues una red mas 'social' siempre será mejor que una red sólo de profesionales y estudiantes.
Entonces es ahora el momento en el que no podemos perder ni un nanosegundo construyendo esa
contrared de la que tanto hemos hablado. ¿No nos quejábamos siempre de que internet era sólo para
unos pocos?, ya puede dejar de serlo, pero para que esos muchos de ahora puedan hacer un uso
interesante de la telemática, debemos hacer un trabajo desde los grupos y redes antagonistas que ya
estamos en la Red. Es la hora de trabajar para que salgan adelante cuantos más servidores
antagonistas sea posible, y así crear nustro propio espacio en eso que llamamos ciberespacio. Cosas
por hacer hay muchas, pero desde hace algún tiempo existen iniciativas que pretenden 'cultivar' ese
terreno. Es por eso que buscamos la visibilidad en el ciberespacio, una visibilidad colectiva, y no
tiene por qué ser unica, al contrario, que es cambiante y ambivalente en todo momento. Del mismo
modo hay que buscar otra visibilidad más pequeña, más directa, y es que parece fundamental dar
identidad a toda aquella persona que se introduzca en la red. Evidentemente esta sería una identidad
anti-identidad, pero esta es la base para poder crear redes, posibilitando que se establezcan vínculos
de verdad entre las diferentes experiencias, grupos, y colectivos de los movimientos sociales;
vínculos a todos los niveles, y no sólo a un nivel oficial que anule las diferencias. Por eso nos gusta
internet como espacio para intervenir, precisamente por eso, porque posibilita una comunicacion
horizontal real, y no gusta experimentear con ello.
— No es gratis porque hay contrapartida
— Nos alegramos de que hay a una entrada masiva en internet, no de que sea gratuito.
El derecho a leer
Richard Stallman(*)
Extraído de La ruta hacia Tycho, una recopilación
de artículos sobre los antecedentes de la Revolución Lunar,
publicado en Luna City, en el año 2096.
El camino hacia Tycho comenzó para Dan Halbert en la Facultad, cuando Lissa Lenz le pidió que le
dejara su ordenador. El suyo se había averiado, y si no se lo dejaba alguien no podría terminar el
proyecto semestral. Ella no se habría atrevido a pedírselo a nadie, excepto a Dan. Esto situó a Dan
ante un dilema. Tenía que ayudarle, pero si le prestaba su ordenador, ella podría leer sus libros.
Además de poder ir a prisión durante muchos años por dejar que alguien leyese sus libros, la misma
idea de hacerlo le escandalizó al principio. Igual que a todo el mundo, le habían enseñado desde el
parvulario que compartir los libros era repugnante y equivocado, algo que sólo haría un pirata. Y era
muy probable que la SPA (Software Protection Authority, Autoridad para la Protección del
Software) les cogiese. Dan había aprendido en su clase de software que cada libro tenía un chivato
de copyright que informaba a la Central de Licencias de quién, dónde y cuándo lo leía. (Esta
información se utilizaba para coger a piratas de la lectura, pero también para vender perfiles de
intereses personales a comerciantes.) La próxima vez que su ordenador se conectase a la red, la
Central de Licencias sería informada. Él, como dueño de un ordenador, podría recibir el castigo más
severo, por no tomar medidas para prevenir el delito.
Por supuesto, podría ser que Lissa no quisiera leer sus libros. Podría querer el ordenador sólo para
escribir su proyecto. Pero Dan sabía que ella era de una familia de clase media, y que a duras penas
podía pagar la matrícula, y menos aún las cuotas de lectura. Puede que leer los libros de Dan fuese
para ella la única forma de terminar los estudios. Sabía lo que era eso: él mismo había tenido que
pedir un préstamo para poder pagar los artículos de investigación que leía. (El 10% de los ingresos
por ese concepto iba a parar a los investigadores que habían escrito los artículos. Como Dan
pretendía dedicarse a la investigación, tenía esperanzas de que algún día sus propios artículos, si
eran citados frecuentemente, le proporcionarían el dinero necesario para pagar el préstamo.)
Más tarde Dan supo que había habido un tiempo en el que cualquiera podía ir a una biblioteca y leer
artículos de revistas especializadas, e incluso libros, sin tener que pagar. Había estudiantes
independientes que leían miles de páginas sin tener becas de biblioteca del Gobierno. Pero en los
años noventa tanto los editores de revistas sin ánimo de lucro como los comerciales habían
comenzado a cobrar cuotas por el acceso a sus publicaciones. Hacia el año 2047 las bibliotecas que
ofrecían acceso libre a la literatura académica eran un recuerdo lejano.
Naturalmente había formas de engañar a SPA y a la central de Licencias.
Eran, por supuesto, ilegales. Dan había tenido un compañero en la clase de software, Frank
Martucci, que había conseguido una herramienta legal de depuración y la había utilizado para
saltarse el código del chivato de copyright cuando leía libros. Pero se lo había contado a demasiados
amigos, y uno de ellos le delató a la SPA para obtener una recompensa (los estudiantes muy
endeudados eran fácilmente tentados por la traición). En 2047 Frank estaba en la cárcel, no por
practicar la piratería de la lectura, sino por poseer un depurador.
Dan supo más tarde que hubo un tiempo en el que cualquiera podía poseer herramientas de
depuración. Incluso había herramientas de depuración libres, disponibles en CD, o en la red. Pero
los usuarios normales comenzaron a utilizarlas para saltarse los chivatos de copyright, y llegó un
momento en que un juez estimó que éste se había convertido en el principal uso de los depuradores.
Esto provocó que pasasen a ser ilegales, y se encarcelara a quienes los desarrollaban. Naturalmente,
los programadores aún necesitaban herramientas de depuración, pero en el año 2047 los vendedores
de depuradores sólo distribuían copias numeradas, y únicamente a programadores con licencia
oficial, y que hubiesen depositado la fianza preceptiva para cubrir posibles responsabilidades
penales. El depurador que utilizó Dan en la clase de software estaba detrás de un cortafuegos
especial para que sólo lo pudiese utilizar en los ejercicios de clase. También era posible saltarse los
chivatos de copyright si se instalaba un kernel modificado. Más adelante, Dan supo que habían
existido kernels libres, incluso sistemas operativos completos libres, hacia el fin del siglo anterior.
Pero no sólo eran ilegales, como los depuradores, sino que no se podían instalar sin saber la
contraseña del superusuario del sistema. Y ni el FBI ni el Servicio de Atención de Microsoft iban a
decírtela.
Dan acabó por concluir que no podía dejarle el ordenador a Lissa. Pero tampoco podía negarse a
ayudarle, porque estaba enamorado de ella. Le encantaba hablar con ella. Y el que le hubiera
escogido a él para pedir ayuda podía significar que ella también le quería.
Dan resolvió el dilema haciendo algo aún más inimaginable: le dejó el ordenador, y le dijo su
contraseña. De esta forma, si Lissa leía sus libros, la Central de Licencias creería que era él quién
los estaba leyendo. Aunque era un delito, la SPA no podría detectarlo automáticamente. Sólo se
darían cuenta si Lissa se lo decía.
Por supuesto, si la facultad supiese alguna vez que le había dicho a Lissa su propia contraseña, sería
el final para ambos como estudiantes, independientemente de para qué la hubiese utilizado ella. La
política de la Facultad era que cualquier interferencia con los medios que se usaban para realizar
seguimientos del uso de los ordenadores por parte de los estudiantes era motivo suficiente para
tomar medidas disciplinarias. No importaba si se había causado algún daño: la ofensa consistía en
haber dificultado el seguimiento por parte de los administradores. Asumían que esto significaba que
estabas haciendo alguna otra cosa prohibida y no necesitaban saber qué era.
Los estudiantes no solían ser expulsados por eso. Al menos no directamente. Se les prohibía el
acceso al sistema de ordenadores de la Facultad, por lo que inevitablemente suspendían todas las
asignaturas.
Posteriormente Dan supo que este tipo de política universitaria comenzó en la década de los ochenta
del siglo pasado, cuando los estudiantes universitarios empezaron a utilizar masivamente los
ordenadores. Anteriormente, las Universidades mantenían una política disciplinaria diferente:
castigaban las actividades que eran dañinas, no aquéllas que eran simplemente sospechosas.
Lissa no delató a Dan a la SPA. La decisión de Dan de ayudarle les condujo al matrimonio, y
también a cuestionarse las enseñanzas que habían recibido de pequeños sobre la piratería. La pareja
comenzó a leer sobre la historia del copyright, sobre la Unión Soviética y sus restricciones para
copiar, e incluso la Constitución original de los Estados Unidos. Se trasladaron a Luna City, donde
encontraron a otros que también se habían apartado del largo brazo de la SPA. Cuando la
sublevación de Tycho comenzó en 2062, el derecho universal a la lectura se convirtió en uno de sus
objetivos principales.
Nota del autor: El derecho a la lectura es una batalla que se libra en nuestros días. Aunque pueden
pasar 50 años hasta que nuestra forma de vida actual se suma en la oscuridad, muchas de las leyes y
prácticas descritas en este relato han sido propuestas, ya sea por el gobierno de Clinton, en EEUU, o
por las editoriales.
Sólo hay una excepción: la idea de que el FBI y Microsoft tengan (y oculten) la contraseña de
administración de los ordenadores. Ésta es una extrapolación de las propuestas sobre el chip Clipper
y otras propuestas similares de custodia de clave (key-escrow) del gobierno de Clinton, y de una
tendencia que se mantiene desde hace tiempo: los sistemas informáticos se preparan, cada vez más,
para dar a operadores remotos control sobre la gente que realmente utiliza los sistemas.
La SPA, que en realidad son las siglas de Software Publisher's Association (Asociación de Editores
de Software), no es hoy día, oficialmente, una fuerza policial. Sin embargo, oficiosamente, actúa
como tal. Invita a la gente a informar sobre sus compañeros y amigos. Al igual que el gobierno de
Clinton, promueve una política de responsabilidad colectiva, en la que los dueños de ordenadores
deben hacer cumplir activamente las leyes de copyright, si no quieren ser castigados.
La SPA está amenazando a pequeños proveedores de Internet, exigiéndoles que permitan a la SPA
espiar a todos los usuarios.
Muchos proveedores se rinden cuando les amenazan, porque no pueden permitirse litigar en los
tribunales. (Atlanta Journal-Constitution, 1 de octubre de 1996, D3.) Al menos un proveedor,
Community ConneXion de Oakland, California, rechazó la exigencia y actualmente ha sido
demandado. Se dice que la SPA ha abandonado este pleito recientemente, aunque piensan continuar
la campaña por otras vías.
Las políticas de seguridad descritas en el relato no son imaginarias. Por ejemplo, un ordenador en
una de las Universidades de la zona de Chicago muestra en la pantalla el siguiente mensaje cuando
se entra en el sistema (las comillas están en el original en inglés):"Este sistema sólo puede utilizarse
por usuarios autorizados. Las actividades de los individuos que utilicen este sistema informático sin
autorización o para usos no autorizados pueden ser seguidas y registradas por el personal a cargo
del sistema. Durante el seguimiento de individuos que estén usando el sistema inadecuadamente, o
durante el mantenimiento del sistema, pueden ser seguidas también las actividades de usuarios
autorizados. Cualquiera que use este sistema consiente expresamente ese seguimiento y es advertido
de que si dicho seguimiento revela evidencias de actividad ilegal o violaciones de las ordenanzas de
la Universidad, el personal a cargo del sistema puede proporcionar las pruebas fruto de dicho
seguimiento a las autoridades universitarias y/o a los agentes de la ley."
Esta es una aproximación interesante a la Cuarta Enmienda de la Constitución de EEUU: presiona a
todo el mundo, por adelantado, para que ceda en sus derechos.
Copyright (C) 1996 Richard Stallman. Se permite la copia literal siempre que se incluya esta nota.
Este artículo apareció en el número de febrero de 1997 de Communications of the ACM (volumen
40, número 2). Traducido del original en inglés por Pedro de las Horas Quirós y Jesús M. González
Barahona
Modificado el: Mon Sep 19 01:26:04 MET DST 1998
--------------------------------------(*)Richard M. Stallman (también conocido como ‘rms’) es el fundador del proyecto para el
desarrollo del sistema operativo libre GNU (GNU’s Not Unix, o sea, "GNU No es Unix") y de la
Free Software Foundation, que financia y difunde el proyecto GNU. GNU se refiere tanto al
desarrollo del sistema operativo completo ¾ que incluye el kernel (núcleo del sistema) Linux, que
es como se suele denominar por extensión a todo el sistema operativo¾ como al proyecto
cooperativo para desarrollarlo. El proyecto GNU nació en 1983 como una lucha para recuperar el
espíritu de cooperación antimercantil que había a principios de los años setenta en las comunidades
de hackers y eliminar los obstáculos que ya por entonces ¾ mediados de los años
ochenta¾ imponían los fabricantes de software propietario. El objetivo de GNU es promover el
desarrollo y uso de free software, construyendo un sistema operativo completo totalmente libre que
elimine la necesidad de usar software propietario (sometido a copyright). Libre significa aquí el
derecho al uso, a la copia, a la redistribución y a disponer de las fuentes para modificar cualquier
programa, sin ninguna otra restricción más que la de que nadie se apropie legalmente de esas
mejoras, ni de que nadie pueda impedir que otr@s las disfruten (es decir, libre de patentes y
copyrights). A ese derecho ¾ que protege el uso libre en vez de la propiedad¾ se le
denomina copyleft, y está plasmado legalmente en la GPL (General Public License). (N. de la Ed.)
Por qué el Software no debería tener propietarios
Richard Stallman
La tecnología de la información digital contribuye a la sociedad haciendo que sea más fácil copiar y
modificar la información. Las computadoras prometen hacer que ésto sea más fácil para todos
nosotros.
Pero no todo el mundo quiere que sea más fácil. El sistema decopyright asigna "propietarios" a los
programas software, y muchos de estos "propietarios" pretenden negar el beneficio potencial del
software al resto del público. Les gustaría ser los únicos que pueden copiar y modificar el software
que utilizamos.
El sistema de copyright se desarrolló con la imprenta --una tecnología para producir copias en masa.
El copyright funcionaba bien con esta tecnología porque sólo restringía a los productores masivos
de copias. No coartaba la libertad de los lectores de libros. Un lector corriente, que no poseyese una
imprenta, sólo podía copiar libros a mano, con pluma y tinta, y pocos lectores fueron demandados
por ello.
La tecnología digital es más flexible que la imprenta: cuando la información tiene un formato
digital, ésta se puede copiar fácilmente para compartirla con los demás. Es ésta flexibilidad la que
no encaja con un sistema como el del copyright. Ésta es la causa de las cada vez más repugnantes y
draconianas medidas que se están utilizando para obligar a cumplir el copyright del software.
Ténganse en cuenta estas cuatro prácticas de la Asociación de editores de software (SPA1):
Propaganda masiva diciendo que no se debe desobedecer a los propietarios para ayudar a los
amigos.
Ofertas a soplones para que informen acerca de sus compañeros y colegas.
Redadas en oficinas y escuelas (con la ayuda de la policía), en las que se conmina a la gente a que
pruebe que son inocentes, que no han realizado copias ilegales.
Persecución (por parte del gobierno de los EE.UU., a petición de la SPA) de gente como David
LaMacchia, del MIT (Massachusetts Institute of Technology), por el simple hecho de no vigilar los
servicios de realización de copias, y no censurar su uso.
Estas cuatro prácticas se asemejan a las utilizadas en la antigua Unión Soviética, donde toda
máquina copiadora estaba vigilada por un guarda para evitar copias prohibidas, y donde los
individuos tenían que copiar la información secretamente y pasarla de mano en mano como
"samizdat"2. Existe por supuesto una diferencia: el motivo por el que se controlaba la información
en la Unión Soviética era político; en los EE.UU. el motivo es el lucro. Pero son las acciones las
que nos afectan, no los motivos. Cualquier intento de bloquear la compartición de la información,
sin importar el porqué, conduce a los mismos métodos y a la misma severidad.
Los propietarios esgrimen diversos argumentos para otorgarse el poder de controlar cómo usamos la
información:
Insultos
Los propietarios utilizan calumnias como "piratería" y "robo", así como terminología pericial como
"propiedad intelectual" y "perjuicio", para sugerir una línea de pensamiento al público--una
analogía simplista entre programas y objetos físicos.
Nuestras ideas e intuiciones acerca de la propiedad de los objetos materiales se centran en si es
correcto o no quitarle un objeto a alguien. No se aplican directamente a la copia de los objetos. Pero
los propietarios quieren que lo apliquemos también a la copia.
Exageración
Los propietarios dicen que sufren "daños" o "pérdidas económicas" cuando son los usuarios los que
copian los programas. Pero la copia no causa un efecto directo en el propietario, y no daña a nadie.
El propietario sólo puede perder si la persona que hizo la copia hubiese pagado por una
proporcionada por el propietario.
Reflexionando un poco, la mayor parte de esas personas no habrían comprado copias. Sin embargo,
los propietarios calculan sus "pérdidas" como si todos y cada uno de los usuarios hubiesen
comprado una copia. Esto es una exageración (por decirlo suavemente).
La ley
Los propietarios muestran a menudo la situacuación legal actual, y las severas penas con las que nos
pueden amenazar. En este enfoque está implícita la sugerencia de que la ley refleja una moralidad
incuestionable, aunque al mismo tiempo somos instados a considerar estas penas como algo natural
que no puede ser imputado a nadie.
Esta forma de persuasión no está diseñada para ser rebatida por un pensamiento crítico, sino que
tiene la intención de reforzar una manera habitual de pensar.
Es elemental que las leyes no deciden entre lo que está bien y lo que está mal. Todo estadounidense
debería saber que hace cuarenta años era ilegal en muchos estados que una persona de raza negra se
sentase en la parte delantera de un autobús, aunque sólo los racistas dirían que sentarse allí era algo
malo.
Derechos innatos
Los autores reivindican a menudo una relación especial con los programas que escriben y afirman
que por lo tanto sus deseos e intereses con respecto a los programas son mayores que los de
cualquier otro. Mayores incluso que los de todos los demás. (Normalmente, las compañías, y no los
autores, son quienes poseen los derechos de autoría del software, pero se espera que pasemos por
alto esta discrepancia).
A aquellos que proponen esto como un axioma ético ("el autor es más importante que tú") sólo
puedo decirles que yo, un notable autor de software, digo que eso es una bobada.
Pero hay únicamente dos razones por las que el público en general podría sentir alguna simpatía con
la reivindación de derechos innatos:
Una razón es la analogía, cogida por los pelos, con los objetos materiales. Cuando cocino espagueti,
pongo objeciones a que alguien se los coma, porque entonces no me los puedo comer yo. Su acción
me perjudica tanto como a él le beneficia. Sólo uno de los dos puede comerse los espagueti, por lo
que la pregunta es ¿quién?. La más mínima diferencia entre nosotros es suficiente para inclinar la
balanza ética en uno u otro sentido.
Pero el hecho de que utilices o cambies un programa que yo escribí te afecta directamente a ti, y a
mí sólo me afecta indirectamente. Si le das una copia a tu amigo, os afecta a ti y a tu amigo mucho
más de lo que me afecta a mí. Yo no debería tener el poder de decirte que no hagas esas cosas.
Nadie debería tenerlo.
La segunda razón es que se le ha dicho a la gente que los derechos innatos de los autores son una
tradición incuestionable en nuestra sociedad.
Históricamente, es justamente al contrario. La idea de los derechos innatos de los autores se
propuso y se rechazó contundentemente cuando se redactó la constitución de los EE.UU. Por ello la
constitución permite un sistema decopyright, pero no requiere uno. Por eso dice que
el copyrightdebe ser temporal. También dice que el propósito delcopyright no es recompensar a los
autores, sino promover el progreso. El copyright recompensa en alguna medida a los autores, y
mucho más a los editores, pero como una medida para modificar su comportamiento.
La auténtica tradición establecida en nuestra sociedad es que el copyright coarta los derechos
innatos del público, y que ésto sólo se puede justificar si es en beneficio de la sociedad.
Aspecto económico
La última razón argüida a favor de los propietarios de software es que así se consigue producir más
software.
A diferencia de los otros argumentos, éste al menos adopta un enfoque legítimo sobre el asunto. Se
basa en una meta defendible, para satisfacer a los usuarios de software. Y es demostrable
empíricamente que si se remunera adecuadamente la producción de un bien, se producirá más
cantidad del mismo.
Pero el razonamiento económico tiene un defecto: se basa en la suposición de que la diferencia
solamente radica en cuánto dinero tenemos que pagar. Asume que lo que se desea es la "producción
de software", sin importar si éste tiene o no propietarios.
La gente acepta fácilmente esta suposición porque concuerda con nuestra experiencia con los
objetos materiales. Consideremos por ejemplo un bocadillo. Supongamos que el mismo bocadillo
puede ser obtenido, bien de manera gratuita, o bien pagando. En este caso, la única diferencia entre
ambos bocadillos es la cantidad que se paga por cada uno de ellos. El bocadillo tendrá el mismo
sabor y el mismo valor nutritivo, sea comprado o no, y en ambos casos el bocadillo sólo podrá ser
ingerido una vez. El hecho de que sea el propietario quien nos proporciona el bocadillo, no afecta
directamente más que a la cantidad de dinero que acabaremos teniendo al final.
Esto es cierto para cualquier objeto material--el hecho de que tenga o no un propietario no afecta
directamente a lo que es, o a lo que se puede hacer con él si se adquiere.
Pero el que un programa tenga o no propietarios afecta a lo que es, y a lo que se puede hacer con
una copia si se compra. La diferencia no es sólo una cuestión de dinero. El sistema de propietarios
de software alienta a éstos a producir algo, pero no a producir aquello que necesita realmente la
sociedad. Y esto provoca una polución ética intangible que nos afecta a todos.
¿Qué necesita la sociedad? Necesita información que esté realmente disponible para sus
ciudadanos. Por ejemplo, programas que la gente pueda leer, corregir, adaptar y mejorar, no sólo
utilizar. Pero lo que normalmente distribuyen los propietarios es una caja negra que no podemos
estudiar o modificar.
La sociedad también necesita libertad. Cuando un programa tiene propietarios, los usuarios pierden
la libertad de controlar parte de sus propias vidas.
Y por encima de todo, la sociedad necesita alentar el espíritu de cooperación voluntaria entre sus
ciudadanos. Cuando los propietarios de software nos dicen que la ayuda a nuestros vecinos es una
forma de "piratería", están corrompiendo el espíritu cívico de nuestra sociedad.
Por ello decimos que el software libre se refiere a las libertades, y no a la gratuidad3.
El argumento económico que esgrimen los propietarios es erróneo, pero el problema económico
general es real. Hay gente que escribe software de utilidad por el placer de escribirlo o por
admiración y amor. Pero si queremos tener más software que el que esta gente escribe, necesitamos
conseguir fondos para ello.
Hace ya diez años que los desarrolladores de software libre vienen utilizando varios métodos para
buscar financiación, habiendo conseguido algunos éxitos. No es necesario hacer rico a nadie; el
ingreso anual medio de una familia estadounidense, alrededor de los 35.000$, parece ser suficiente
incentivo para muchos trabajos que son menos satisfactorios que la programación.
Durante varios años yo viví de realizar mejoras a medida del software libre que había escrito, hasta
que una beca lo hizo innecesario. Cada mejora se añadía a la versión estándar que se distribuía, y
acababa estando disponible para el público en general. Los clientes me pagaban para que realizase
las mejoras que ellos querían, en lugar de las que yo habría considerado como más prioritarias.
La Free Software Foundation, una fundación exenta de impuestos para el desarrollo de software
libre, obtiene sus ingresos mediante la venta de CD-ROM, camisetas y manuales (todos los cuales
pueden ser copiados y alterados libremente por los usuarios), y mediante las donaciones que recibe.
Actualmente tiene una plantilla de cinco programadores, más tres empleados que gestionan las
peticiones por correo.
Algunos desarrolladores de software libre obtienen sus ingresos de la venta de servicios de soporte.
Cygnus Solutions, con unos 50 empleados, estima que alrededor del 15 por ciento de la actividad de
su plantilla se dedica a la realización y mejora de software libre--un porcentaje respetable para una
compañía de software.
Varias compañías, incluyendo Intel, Motorola, Texas Instruments y Analog Devices, se han aliado
para financiar el mantenimiento continuado del compilador libre de GNU para el lenguaje C.
Mientras tanto, el ejército del aire de los EE.UU. está financiando el compilador de GNU para el
lenguaje Ada, por pensar que ésta es la forma más económica de obtener un compilador de calidad.
(La financiación terminó hace algún tiempo; el compilador de Ada de Gnu está actualmente
funcionando, y su mantenimiento se financia comercialmente).
Todos estos son pequeños ejemplos. El movimiento del software libre es aún reducido y joven. Pero
el ejemplo de las cadenas de radio mantenidas por los oyentes de este país (EE.UU.) muestra que es
posible mantener una gran actividad sin forzar a que cada usuario pague.
Como usuario actual de computadoras, puede que estés utilizando un programa propietario. Si tu
amigo te pidiese una copia, estaría mal que te negases a hacérsela. La cooperación es más
importante que el copyright. Pero la cooperación clandestina, encubierta, no contribuye a formar
una buena sociedad. Cualquier persona debería aspirar a vivir abiertamente, erguido, con orgullo, y
esto significa decir "No" al software propietario.
Mereces poder cooperar abierta y libremente con otras personas que utilizan software. Mereces
poder aprender cómo funciona el software, y enseñar a tus estudiantes con él. Mereces poder
contratar a tu programador favorito para arreglarlo cuando falle.
Te mereces el software libre.
Notas al pie
... (SPA1
Software Publishers Association
... "samizdat"2
Nota del traductor: Samizdat es un vocablo ruso que significa "publicado por uno mismo". Con este
término son conocidos en Rusia las publicaciones clandestinas y la prensa "underground" que
circulan desafiando la censura oficial.
... gratuidad3
En inglés, el vocablo "free" es polisémico, pudiendose entender "free software" como software
gratuito o como software libre. De ahí la aclaración que hace el autor.
Una entrevista con Richard Stallman
En principio algo intimidado por la reputación que envuelve a este hombre, Joe Barr se introduce en
un intercambio fascinante con el campeón del free software.
A cargo de Joe Barr
Contacté con Richard Stallman la semana anterior a la Expo (*) y le solicité una entrevista sobre el
futuro del software libre. El miércoles me encontré con él en el puesto de la Free Software
Foundation y nos sentamos en el área del stand -en una de esas estúpidas piezas hinchables de
mobiliario plástico- para llevarla a cabo.
La pinta de Rasputín de Richard, su pelo largo y oscuro y su barba, así como su fama de dejar a los
periodistas como idiotas inútiles, me tenían en vilo. Pero su voz y sus facciones, en particular sus
ojos, son notablemente cálidos y amigables. Su mensaje -que el softwaredebe ser libre (free -en el
sentido de libre, no de gratuito(**)- se ha mantenido tan firme a lo largo de los años que muchos, yo
incluido, han asumido que el mensajero debía ser tan duro e inflexible como el mensaje. Estabamos
equivocados.
LinuxWorld Today: Cuando me estaba preparando para esta entrevista, me surgían ciertos miedos:
me preocupaban cosas como ofenderte diciendo "Linux" en vez de "GNU/Linux".
Richard Stallman: El problema no estaría tanto en el hecho de que me ofendieras, y especialmente
si se tratase de una equivocación. Lo que me interesa principalmente no es lo que tú me digas,
porque después de todo yo conozco la situación. Lo que importa es lo que le digas a otra gente y si
les sitúas con franqueza en la historia del sistema o extiendes la confusión habitual. Eso es lo que
verdaderamente importa.
LinuxWorld Today: Leí una entrevista que hiciste con Byte Magazine en 1986 y quedé sorprendido
por dos cosas: en primer lugar, si hubiera escuchado esa entrevista en 1986 habría pensado que eras
un loco al hablar de la posibilidad de un sistema que permitiría a la gente ser productiva con
ordenadores basados por entero en software libre.
Richard Stallman: Ves, tenía una ventaja. Sabía que era posible. Estuve haciéndolo junto con otro
grupo de gente allá en el MIT en los setenta. Teníamos un sistema time-sharing que había sido
desarrollado por los hackers en el AI Lab. Ese era su trabajo, desarrollar el sistema operativo. Yo me
uní a esa comunidad bastante tarde. Empezó en los sesenta y yo me uní a ella en 1971. El sistema ya
existía y funcionaba, y yo me adherí a él. Así que sabía que era posible. No tuve que especular sobre
si tendríamos éxito o no en desarrollar otro. De lo que no estaba seguro es de si conseguiríamos
juntar suficiente gente. Pero de que en principio era posible, sobre eso no tuve que hacer conjeturas.
LinuxWorld Today: También me sorprendió el hecho de que en 1986 estuvieras diciendo
exactamente las mismas cosas que dices hoy en día.
Richard Stallman: Así que una de dos: puedes decir que soy constante o que no sé aprender nada.
LinuxWorld Today: Creo que los resultados hablan por sí mismos. Pero me parece que es algo a
destacar que tuvieras una visión, una visión consistente, y que ésta constituya hoy en día una gran
parte del mundo. Es una fuerza poderosa en el mundo.
¿Qué es lo que falta todavía hoy en el sistema GNU? ¿Qué es lo que está aún por venir?
Richard Stallman: Bueno, todavía no tenemos un navegador web libre realmente bueno, y existen
un buen número de cosas como la compresión de audio y vídeo que no tenemos y que podría ocurrir
que nos fuese imposible tenerlos en EEUU a causa de las patentes. Todavía estamos trabajando en
un sustituto libre para ssh. Hay gente trabajando también en sustitutos libres para Microsoft Office.
Existen algunos procesadores de texto libres. Lo que no sé es si son suficientemente buenos. Creo
que todavía no existe ningún software libre de maquetación, pero es necesario que lo haya.
LinuxWorld Today: Las cosas que estás mencionando son casi todo aplicaciones.
Richard Stallman: Bueno, tenemos el núcleo del sistema, así que no es allí donde están faltando
cosas. Después de todo, las cuestiones referentes a la libertad se aplican de la misma forma a
programas de aplicaciones que a sistemas operativos. Decidí que debíamos lanzarnos a por el
sistema operativo primero, porque necesitas un sistema operativo en primer lugar. No puedes hacer
nada sin un sistema operativo. Mientras que estas aplicaciones individuales, cualquier aplicación
concreta, puede que mucha gente no la necesite. Pueden hacer su trabajo sin ella. Pero ahora que
tenemos un sistema operativo, sí es el momento para las aplicaciones libres. De modo que la
libertad pueda expandirse a lo largo de todo el espectro del software y todos los usuarios de
ordenador puedan tener plena libertad.
LinuxWorld Today: ¿Existe un sistema operativo nuevo a punto de cobrar vida?
Richard Stallman: Lo siento, no entiendo lo que dices.
LinuxWorld Today: Como GNU/Hurd.
Richard Stallman: El Hurd no es un sistema operativo, es un kernel. El sistema operativo GNU está
funcionando pero usando Linux como kernel. Funciona. Es un kernel fiable y sólido, es tan bueno
como lo fue cualquier kernel UNIX y, como resultado, el sistema GNU con kernel Linux es un
sistema fiable y sólido.
En este momento el trabajo con GNU/Hurd está siendo muy lento, desafortunadamente. Me gustaría
que hubiese alguien capaz trabajando a tiempo completo en ello, pero no lo hay. El resultado es que
lo tenemos funcionando pero no hemos escrito lo suficiente para aprovechar la arquitectura
avanzada y posibilitar realmente a los usuarios que se beneficien de él. Y hasta que encontremos a
alguien que haga esto, no va a ser de uso verdaderamente directo y práctico para la gente.
Así que espero que llegue alguien, pero tenga o no éxito GNU/Hurd, el sistema GNU en su
conjunto ha triunfado.
LinuxWorld Today: Tú has escrito una serie de programas. Emacs, gcc, gdb. Me olvido de algo
principal aquí pero, con el software con el que has contribuido, con el Manifiesto GNU, con la Free
Software Foundation, ¿qué crees que es lo más importante que has hecho por el software libre?
Richard Stallman: Bueno, tú estás mirando las distintas partes de algo que es realmente importante
como conjunto. El Manifiesto GNU trazó el plan para construir una comunidad en la que la gente
podría tener libertad usando exclusivamente software libre. Ahora bien, para hacer esto
necesitábamos un sistema operativo que fuera completamente libre. Eso fue GNU. Así que los
distintos programas que he escrito son importantes porque nos ayudaron a llegar a ese punto, son
piezas del sistema GNU. Pero lo que es realmente importante es el conjunto del sistema GNU.
Esto es, después de todo, por lo que Linux es importante, porque se usa como una pieza en el
sistema GNU, en la versión de GNU que la gente de hecho usa. Así que ninguna de estas piezas
individuales tendría en realidad tanta importancia si no tuviéramos el sistema completo.
Por supuesto, existen muchas piezas en el sistema y algunas de ellas las escribieron otros por
motivos completamente diferentes. Pero en el momento en que yo escribía una pieza lo estaba
haciendo para conseguir un objetivo final. Así que no creo que sea útil mirar las piezas
individualmente. Si quieres evaluar su importancia, la manera de hacerlo es preguntarse "¿en qué
medida nos ayudan a alcanzar el objetivo global?", en vez de "¿qué utilidad tiene esta pieza de
software aisladamente?"
LinuxWorld Today: ¿De dónde obtienes la mayor satisfacción personal? ¿Es el Manifiesto GNU
más importante que el software?
Richard Stallman: Diría que defender con determinación la libertad e insistir en que deberíamos
aspirar a un sistema completamente libre y no conformarnos con menos es lo más importante que he
hecho.
LinuxWorld Today: He oído que te describen como un socialista o un comunista. ¿Entra la política
en la Free Software Foundation?
Richard Stallman: La política sí, pero no soy socialista ni comunista.
LinuxWorld Today: ¿Cómo te describirías a ti mismo?
Richard Stallman: Bueno, creo que soy una especie de combinación entre un liberal y un anarquista
de izquierdas. Me gusta ver a la gente trabajar junta, voluntariamente, para resolver los problemas
del mundo. Pero si no podemos hacer eso, deberíamos conseguir involucrar al Gobierno para
resolverlos.
La idea de democracia es que ésta capacita a los ciudadanos en general para controlar el poder de
los más ricos y, en estos días en América, estamos fallando a la hora de usar esta herramienta, lo que
por supuesto aboca a la mayoría de la gente a una vida dura.
LinuxWorld Today: Especialmente el contraste entre el hombre más rico del mundo, Bill Gates, por
una parte, que obtiene toda su riqueza del software propietario, en el que la gente no tiene en
absoluto la opción de elegir, y por otra...
Richard Stallman: Bueno, debería señalar que la gente con suficiente determinación sí que tiene una
opción. Yo estaba en la misma posición en la que mucha gente decía estar y decidí que no iba a usar
eso. Cuando inicié el proyecto GNU, Microsoft no era particularmente importante o particularmente
grande, pero lo que puedes decir con certeza es que las únicas opciones alternativas eran opciones
difíciles. La mayoría de la gente mira esas opciones difíciles y dice "eso es demasiado duro para
mí". Porque no están absolutamente determinados a obtener la libertad. Lo más importante del
proyecto GNU es que está ofreciendo a la gente una alternativa al software propietario que es más
fácil y, en la medida en que es más fácil, más gente siente que puede elegirlo. Así que esta es la
manera en la que extiende la libertad a la gente, ofreciéndoles un camino menos heroico para poder
obtener libertad.
De todas formas, la gente que me llama comunista está empeñada en el hostigamiento a los rojos.
Es algo típico. Si cualquiera critica algo de lo que los negocios están haciendo, hoy en día, le cae el
apelativo de comunista.
Cuando la gente decía "no envenenéis el río", se les llamaba comunistas. Pero no querían acabar
con los negocios. Querían acabar con el envenamiento del río. El movimiento del software libre
tiene mucho que ver con eso. Se parece mucho al movimiento medioambiental porque el objetivo
no es acabar con los negocios, el objetivo es poner fin a un cierto tipo de contaminación. Pero en
este caso no se trata de contaminación del aire o del agua, sino de contaminación de nuestras
relaciones sociales.
Cuando alguien dice "aquí tienes algo bonito que podrás disfrutar usando, pero si lo compartes con
tu vecino te llamaremos pirata y te meteremos en la cárcel", está contaminando el recurso más
importante de la sociedad, que es la buena voluntad, el deseo de cooperar con otra gente.
LinuxWorld Today: Si he entendido lo que has dicho y escrito anteriormente, es aquí donde pones el
énfasis.
Richard Stallman: Sí, esa es la razón por la que decidí dedicar mis esfuerzos al software libre, para
cambiar un sistema detestable. Y no me refiero a un sistema informático. Me refiero a un sistema
social.
LinuxWorld Today: Te oí la noche pasada en la ceremonia de premios, diciendo que habías vivido
durante una época en tu oficina en el MIT. ¿Todavía vives allí?
Richard Stallman: No, no me dejarían. Me gustaría, es muy conveniente.
LinuxWorld Today: ¿Cómo pagas tus recibos? ¿Qué ingresos tienes?
Richard Stallman: En estos días me pagan por hablar. Me he ganado la vida de varias maneras. En
un determinado momento, durante casi todo un año después de que GNU Emacs se desarrollara por
primera vez, estuve vendiendo copias de GNU Emacs. Después, durante varios años, estuve dando
servicio técnico de software libre. Estuve aceptando comisiones para añadir nuevas características
al compilador de C, dando clases sobre Emacs y sobre cómo programar gcc.
Imagino que habría continuado haciendo esto pero obtuve un premio importante y no tuve que
hacerlo más.
LinuxWorld Today: Así que tienes tus necesidades básicas cubiertas...
Richard Stallman: Bueno, ahora lo están, pero cuando empecé el proyecto GNU no podía estar
seguro de ello. No era rico y no sabía cómo me iba a ganar la vida. Pero afortunadamente vivo con
poco dinero. Me he resistido a adquirir los caros hábitos que otra gente pilla tan pronto como
consiguen suficiente dinero para ello. Ya sabes, como casas y coches y niños y barcos y aviones. O
coleccionar arte. La gente tiende a pensar "tengo dinero ahora, déjame buscar cosas frívolas para
fundírmelo". Pero mi idea era "voy a ahorrar esto de forma que en el futuro no tenga que
preocuparme por ello". Vivir barato ayuda en ese sentido. También me permitió decidir qué es lo
que iba a hacer con mi vida, en vez de que el dinero decidiera por mí.
LinuxWorld Today: ¿Todavía escribes software?
Richard Stallman: No una cantidad terrible. Me he visto obligado a prepararme y promocionarme
en el management.
LinuxWorld Today: ¿Así que te estás haciéndo cargo de la dirección de la FSF?
Richard Stallman: Bueno, lo intento. Todavía saco tiempo para corregir bugs en Emacs y añadir
nuevas características. Pero no tanto tiempo como me gustaría.
LinuxWorld Today: ¿Pasas la mayor parte de tu tiempo en el circuito de las charlas?
¿Haciendo bolos como este?
Richard Stallman: Paso la mayor parte de mi tiempo viajando. En parte porque cuando voy a algún
sitio intento disfrutarlo. Así que no me limito a ir y volver de nuevo tan pronto como sea posible. A
menudo me quedo un tiempo. Eso si se trata de un lugar al que me guste ir. Si es un sitio al que no
deseo ir especialmente, sólo me desplazaré hasta allí si creo que es realmente importante.
LinuxWorld Today: Para mí es emocionante encontrarme contigo.
Richard Stallman: Entonces difunde la palabra que habla de libertad.
LinuxWorld Today: Ese es tu mensaje.
Richard Stallman: Insta a la gente a incorporarse a la filosofía del software libre en vez de a la
de open source.
LinuxWorld Today: ¿Y cuál es la distinción?
Richard Stallman: La diferencia está en que la filosofía de open source tiene que ver con hacer
software fiable y potente. Enfatizan los valores prácticos. Y no se equivocan, pero estos valores no
lo son todo. Yo creo que la libertad es más importante que el software potente y fiable. Si todo lo
demás es igual, querré el software potente, más fiable. Pero si tengo que elegir entre un programa
más potente y mi libertad, elegiré mi libertad.
Usaré software libre incluso si es menos potente o menos fiable, porque la libertad es lo más
importante, y es en esto en lo que consiste el movimiento por el software libre. En cómo obtenemos
la libertad. Queremos hacer software potente y fiable porque de esta forma más gente lo usará y
tendrá libertad.
LinuxWorld Today: ¿Por qué la Free Software Foundation no se dirige a Netscape, AOL, quien sea
y les dice: "Dadnos Mozilla y completaremos el proyecto."
Richard Stallman: Bueno, nunca lo he pensado. No sé si técnicamente podemos hacer mejor trabajo
del que ellos están haciendo, quizá podríamos. Por otra parte, no veo ninguna razón para pensar que
Netscape quiere renunciar al proyecto. ¿Quieren hacerlo? Me refiero a que no he tenido noticias de
ello. Intuyo que quieren terminarlo.
LinuxWorld Today: Estoy seguro de que quieren, pero hay mucha gente descontenta con las
licencias, quizás.
Richard Stallman: Yo estoy descontento con las licencias de Netscape. Es una licencia de software
libre pero quedan ciertos flecos, les he pedido que los cambien; en fin, el que lo hagan depende de
ellos.
LinuxWorld Today: Pero ellos no están recibiendo aportaciones de la comunidad de desarrolladores.
Richard Stallman: Ese es un fenómeno interesante. No sé por qué ocurre. No recuerdo exactamente
qué explicación dio de esto Jamie Zawinski [el desarrollador líder de Mozilla], ¿te acuerdas?
LinuxWorld Today: Sí, dio varias razones. Número uno: es un software muy, muy complejo. Las
expectativas eran demasiado altas para cumplir con lo prometido, que era demasiado, demasiado
pronto. No es una tarea trivial. Número dos: dijo que Netscape estaba haciendo todo el desarrollo, o
el 90% del desarrollo.
Richard Stallman: ¿Cuál era su explicación del por qué otra gente no se unía al proyecto? ¿Tiene
alguna idea de por qué ocurre esto? No tendría por qué saberlo necesariamente. Ninguno de
nosotros tendría por qué saberlo necesariamente. Pero quizás él había estado prestando atención
para averiguar por qué la gente no se unía.
LinuxWorld Today: No creo que dijera por qué.
Richard Stallman: Yo no sé por qué ocurre. Creo que quizás el hecho de que su licencia no fuese
una licencia imparcial, de que otorgara a Netscape un privilegio especial con el código de otra
gente. Imagino que esa era parte de la razón.
LinuxWorld Today: Sean cuales sean las razones, no ha recibido aceptación social.
Richard Stallman: Es también concebible que Netscape esté compitiendo consigo misma. La gente
que no está firmemente comprometida con el software libre y con la libertad piensa que está bien
usar Netscape. Es decir, no Mozilla, sino el navegador Netscape que todavía está solamente
disponible en formato binario. Y si están contentos usando eso, entonces no ven ninguna razón para
preocuparse o cuidar de Mozilla.
LinuxWorld Today: ¿Qué navegador usas?
Richard Stallman: Uso Lynx [navegador libre sólo-texto, N. de la T.]. De todas formas no estoy
terriblemente interesado en las imágenes. Las considero como una distracción-caramelo para los
ojos y me parecen molestas en las páginas web. Las hace difíciles de leer y los anuncios tienden a
ser gráficos, y yo no quiero ver anuncios.
LinuxWorld Today: Estoy sorprendido por el hecho de que dos de las maneras en las que te has
ganado la vida desde el principio de este camino se parecen mucho a lo que ha hecho Michael
Tiemann, co-fundador de Cygnus Solutions (***). Excepto que tú lo has hecho a nivel individual en
vez de a nivel corporativo.
Richard Stallman: Absolutamente. Es cierto.
LinuxWorld Today: Michael Tiemann me dijo que cuando leyó el Manifiesto GNU vio un plan de
negocios donde otros veían lo que tú estabas diciendo.
Richard Stallman: Bueno, en verdad él puede haber visto un aspecto de lo que había allí. Porque yo
hablaba en el Manifiesto GNU sobre formas en las que podría haber negocios de software libre.
Pero mi preocupación principal no era en torno a los negocios, sino en torno a la libertad.
Sí, yo he hecho negocios. Yo he hecho personalmente negocios confree software. Creo que los
negocios con software libre son algo bueno. Pero aunque hagamos negocios para ganarnos la vida y
vivir, hay cosas que están sobre y más allá de eso. Tal y como hacer del mundo un sitio mejor. Así
que yo aspiraba a algo más allá del hecho de ganarme la vida. Sí, yo hago negocios para ganarme la
vida y no me avergüenzo de ello. Pero si eso fuera todo lo que yo hiciera, no tendría tanta
importancia.
LinuxWorld Today: Los conceptos de libertad, tal y como tú los formulas, en la manera en la que se
aplican al software -¿a qué otras formas de expresión deberían aplicarse?
Richard Stallman: Algunos de los temas se transfieren a cosas como libros y música, cosas que
puedes tener en tu ordenador y otras que no. Para algunas de ellas, es útil hacer modificaciones y
para otras no.
LinuxWorld Today: ¿Por su utilidad?
Richard Stallman: Por cómo la gente las usa y de qué están hechas. Introducir modificaciones en
novelas no es tan importante como lo es en el software. Los programas están hechos para funcionar,
mientras que las novelas están hechas para que se las aprecie. De modo que es esencial que la gente
tenga la libertad de introducir cambios en el software y publicar versiones modificadas. No creo que
sea esencial tener esa libertad para las novelas. Pero, por otra parte, la libertad para hacer copias
para tus amigos es esencial para todo tipo de cosas que puedan ser publicadas y puedas tener en tu
ordenador.
LinuxWorld Today: ¿Cómo puede la gente implicarse en la Free Software Foundation?
Richard Stallman: Echa un vistazo a www.gnu.org. Tenemos toda una serie de sugerencias de cómo
la gente puede ayudar escribiendo código o contribuyendo a administrar nuestros sistemas si son
buenos administradores de sistemas deseando trabajar. O escribiendo documentación. Realmente
necesitamos documentación. Necesitamos buenos escritores de documentación, más de lo que
necesitamos buenos programadores, así que si tienes la capacidad de escribir buena documentación,
eso es lo que deberías hacer. Cuando la gente aparece para programar, ofreciendo escribir software,
y me entero de que pueden escribir documentación, les suplico que en vez de programar hagan esto
último. Porque la buena documentación es esencial y para un sistema libre necesitamos
documentación libre, documentación que podamos distribuir como parte del sistema. Existen
muchos manuales publicados sobre el software libre, pero la mayoría de ellos no son libres. Por
supuesto, estoy hablando todo el tiempo sobre libertad, no sobre precios. El problema es que el
texto de estos manuales está restringido. No se te permite copiarlos y redistribuirlos y publicar
versiones modificadas de ellos.
LinuxWorld Today: ¿Has oído algo sobre el libro que IDG Books,LinuxWorld, Nicholas Petreley y
yo vamos a hacer? El OpenBook?
Richard Stallman: No, pero puede que esté interesado en él.
LinuxWorld Today: Será redistribuible y modificable libremente.
Richard Stallman: ¡Guau! Si se trata de eso, entonces suena exactamente como lo que más
necesitamos. Tenlo por seguro. Mantenme al tanto.
LinuxWorld Today: Desde luego que lo haré. Estará escrito por la comunidad, Nicholas y yo sólo
serviremos de editores.
Richard Stallman: ¿Sobre qué tratará?
LinuxWorld Today: Tratará sobre "Essential Linux".
Richard Stallman: Espero que lo llaméis GNU/Linux.
Agosto de 1999
(c) LinuxWorld, published by Web Publishing Inc.
(La traducción castellana a cargo del Área Telemática del CSOA el
Laboratorio www.sindominio.net)
Sobre el autor de la entrevista
Joe Barr es un columnista semanal de LinuxWorld que vive en Austin, Texas. Desde 1974 ha
trabajado como programador, analista, consultor o directivo. Después de un corte de pelo en 1992
que le hizo inelegible como directivo, volvió a su primer amor, la programación. En 1994 empezó
escribiendo la columna "Papa Joe's Dweebspeak Primer" que vive ahora en forma de carta/webzine
en www.pjprimer.com. Un sitio que ha corrido en un servidor linux desde su origen.
Notas
(*) Se refiere a la LinuxWorld Expo, que tuvo lugar en San José, en el corazón de Sillicon Valley,
California (EE.UU.), en agosto de 1999 [N. de la T.].
(**) Esta aclaración, que se repetirá a lo largo de la entrevista, es para fijar la polisemia que en
inglés tiene el término free. En efecto,free software puede significar en inglés tanto software
gratuito comosoftware libre. Esta ambigüedad fue una de las justificaciones que llevó a Eric
Raymond y a otros a promover el uso de open sourcecomo sustitutivo del concepto de free
software. Stallman y mucha otra gente no están de acuerdo y mantienen que open source["código
fuente disponible"] produce otras confusiones aún más indeseables, derivadas de poner el acento en
la publicación del código fuente en vez de en la libertad para poder usarlo, modificarlo y
distribuirlo. El software libre implica que se distribuya con sus fuentes, pero el open source de
ningún modo presupone que este sea libre (en el sentido de poderse copiar, modificar y redistribuir,
fundamentos del free software). Además, la confusión terminológica del adjetivo free (gratis y libre)
se produce en el ámbito anglosajón, pero no se da en muchas otras lenguas (como el castellano, por
ejemplo, donde tenemos dos palabras diferentes) [N. de la T.].
(***) Cygnus es la primera y probablemente la mayor empresa que trabaja con software libre y
cuyas aportaciones a la comunidad delfree software -liberando código y manteniendo aplicaciones
fundamentales como el compilador de C- han sido numerosas y de un valor extraordinario. [N. de la
T.]
¡"Si uno mira a la realidad lo suficientemente cerca,
podrá ver los píxels."
Dicho anónimo que circula por Internet.
Internet se presenta a sí misma como el primer foro permanente donde millones de personas de todo
el mundo intercomunican de manera autónoma independientemente de su edad, sexo, nacionalidad,
raza o creencias. Con ello se pone en marcha una nueva mitología y una nueva posibilidad de creer
que por fin existe un lugar abierto y seguro donde reunirnos y compartir en ausencia de fronteras,
líderes, amos, policía ni ejército: un gran espacio para el diálogo construido sin contaminar, sin
expoliar, sin sacrificios, sin muerte. Curiosamente, una gran máquina comunicativa vendría a
efectuarse precisamente ahora que ya no queda nada que comunicar y cuando la posibilidad de que
ocurra algo diferente parece ahogada por el todo es lo mismo.
Las nuevas tecnologías comunicativas no suscitan oposición abierta, pero sin duda producen
rechazo. Aunque desde los movimientos sociales a las comunidades cyberpunks, pasando por
multitud de colectivos radicales, parece abrirse o al menos no se niega rotundamente la posibilidad
de usos liberadores, comportamientos individuales manifiestan resistencia e incluso hostilidad ante
la continua renovación tecnológica que, al requerir siempre nuevos adiestramientos, en definitiva
impone una intensificación directa o indirecta de la jornada laboral.
Desde este punto de vista la escalada de nuevas tecnologías sería sufrida sencillamente como la
obligación de trabajar más. Pero su funcionalidad en la recomposición del ciclo productivo va más
allá, pues cuando el tiempo de vida en su totalidad tiende a convertirse en tiempo de trabajo, y
cuando la comunicación deviene un elemento productivo primordial, la sociedad en su conjunto
trabaja como una gran máquina productiva cuya integración no sería tan eficiente sin las tecnologías
comunicativas, de entre las cuales Internet es la más paradigmática.
No es fácil caracterizar aquello que es Internet debido a que esta red de redes posee la doble calidad
indivisible de aquello que es al mismo tiempo un producto y también su propio medio de
producción, y que por tanto satisface necesidades al tiempo que las instituye. Internet es una
nueva tecnología y al mismo tiempo es una infraestructura para la comunicación; infraestructura
que esglobal y que tiene propósito universal. Como tecnología, Internet es a la vez artefactual, pues
está integrada por ordenadores, cables o satélites materiales claramente identificables; es también
tecnología organizativa, pues impone un determinado modelo de interacción comunicativa: la red; y
finalmente es una tecnología simbólica, pues vehicula la construcción de nuevas realidades
materiales y virtuales que no podrían producirse de otro modo.
Al mismo tiempo Internet es una infraestructura con aspiraciones globales, pues tiende a englobar
toda la realidad productiva en sus múltiples aspectos de producción, distribución, consumo,
espectáculo, participación... Y su propósito es universal, pues no ha sido desarrollada, y en ello
estriba en gran medida su potencia, para proveer servicios particulares. Por el contrario, soporta
todo tipo de información, ya sea ésta codificada como texto, datos, imagen estática o en
movimiento, sonido, e incluso realidad virtual, y no se prevén límites a la cantidad o variedad de los
servicios que puede ofrecer.
El carácter novedoso de Internet estriba en ser la primera infraestructura comunicativa global y
universal organizada según el modelo de red. Es cierto que se han desarrollado otras muchas
tecnologías comunicativas pero, o bien no soportan satisfactoriamente nuevas maneras de codificar
la información (caso del teléfono) o bien se organizan según un modelo centralizado que no soporta
la interacción (caso de la televisión).
Puesto que una red no es simplemente un conjunto de canales de comunicación interconectados,
sino también una técnica organizativa, Internet no es solamente un modo más sofisticado de
mantenernos informados, sino una infraestructura adecuada para la comunicación y la cooperación
social en la justa medida que el actual proceso de producción social demanda, aunque precisamente
por su carácter global y universal pueden producirse excesos de participación que, probablemente,
serán controlados a través del precio de los accesos y de los servicios.
Las redes de ordenadores son una respuesta tecnológica a la necesidad de aumentar la productividad
a través de la integración de la información y de la utilización intensiva de las máquinas, lo que
eufemísticamente se conoce como compartición de recursos. Antes de su aparición, la compartición
de información por parte de varios ordenadores sólo era posible mediante la utilización de
dispositivos de almacenamiento extraíbles (por ejemplo, nuestros disquetes de hoy en día). El uso
de unidades de almacenamiento extraíbles permitía a varios usuarios compartir información, pero
no permitía compartir otro tipo de recursos tales como impresoras, discos duros, o programas. Las
tecnologías LAN (Local Area Network) vinieron a resolver este problema. Utilizando las diversas
tecnologías LAN disponibles fue posible interconectar varios ordenadores no muy alejados entre sí,
por ejemplo situados en un mismo edificio, a fin de que pudieran compartir información, programas
y demás recursos tales como impresoras o discos duros.
Paralelamente al desarrollo de las tecnologías LAN, aparecieron las tecnologías WAN (Wide Area
Network). Las tecnologías WAN vinieron a satisfacer la necesidad, surgida especialmente en
centros de investigación industriales y académicos, de acceder a un ordenador situado a muchos
kilómetros de distancia (por ejemplo al otro lado del Atlántico) para utilizar su capacidad de
cálculo.
De las tecnologías LAN y WAN surgieron las redes. Las redes se mostraron más potentes que la
suma de sus componentes, y la compartición de recursos empezó a parecer algo natural, incluso a
pesar de las demoras que toda compartición conlleva. Pero la proliferación de redes produjo nuevas
necesidades tecnológicas.
Una red de ordenadores no es un grupo de ordenadores conectados entre sí, sino un dispositivo con
sus propias características mecánicas, eléctricas y lógicas cuya existencia es independiente de los
ordenadores que la utilizan. Los ordenadores no son la red. Simplemente se conectan a ella
temporal o permanentemente y utilizan los servicios que ésta proporciona: por ejemplo, el acceso a
una impresora, la transferencia de un fichero, la ejecución de un programa o el envío de un mensaje.
La consecuencia de este detalle técnico es muy relevante, pues significa que no pueden unirse dos
redes pequeñas para formar una red mayor simplemente tirando un cable entre ambas. La mayoría
de tecnologías LAN son incompatibles entre sí. Lo mismo ocurre con las tecnologías WAN y por
supuesto entre unas y otras. Cada tecnología tiene sus propias especificaciones respecto a voltaje,
frecuencia, modulación, codificación, direccionamiento, transporte etc. A finales de los años setenta
había muchas LAN y alguna WAN. No había, sin embargo, la posibilidad de unirlas entre sí, de
manera que cada red permanecía aislada.
A finales de los años sesenta, el Departamento de Defensa de los EE.UU. a través de la agencia
federal ARPA (Advanced Research Projects Agency) se interesó por desarrollar la investigación
sobre redes de ordenadores utilizando gran variedad de tecnologías. Según se cuenta, ARPA
pretendía que las redes de ordenadores del Departamento de Defensa pudieran mantener la
operatividad ante un eventual ataque soviético. Para ello, las redes se debían organizar propiamente
como redes, es decir, sin un lugar central que las hiciera vulnerables. ARPA asumió la interconexión
mútua de distintas redes como un problema de carácter estratégico para la defensa de EEUU, e
interesó a investigadores tanto industriales como académicos en su solución, les instó a discutir sus
hallazgos y poner en común sus proyectos, y puso a su disposición medios para aplicar sus
propuestas. Dado que el objetivo era la interconexión entre las LAN y las WAN, el proyecto
auspiciado por ARPA empezó a conocerse como internetwork (interredes) y con el tiempo el
término abreviado, internet, se aplicó tanto a los proyectos de investigación como a las redes
prototipo que se desarrollaron. ARPA concibió el proyecto de la interconexión entre redes como
algo eminentemente operativo, e instó a los investigadores a aplicar sus descubrimientos en la WAN
de ARPA llamada ARPANET. Sobre la estructura de ARPANET los ingenieros del proyecto internet
desarrollaron una interred prototipo que, para distinguirla de otros prototipos fue bautizada como
Internet (la inicial con mayúsculas). De esta manera, Internet fue la red utilizada por los
investigadores del proyecto para intercambiar documentos, poner en común ideas y coordinar su
trabajo, mientras que al mismo tiempo fue una red experimental sobre la que se aplicaron esas ideas
y proyectos, adquiriendo desde el primer momento el doble carácter de ser a la vez productora y
producida.
A mediados de los años setenta las empresas informáticas que habían desarrollado tecnologías LAN
o WAN no sólo mantenían en secreto los resultados de sus investigaciones, sino que patentaban las
tecnologías para garantizar la propiedad sobre ellas. Las empresas creían que crear sistemas
cerrados preservados de influencias exteriores garantizaba de mejor manera sus beneficios. Por el
contrario ARPA decidió que Internet fuera un sistema abierto y en consecuencia los resultados de
proyecto se hicieron públicos. Contraviniendo lo que por aquel entonces era habitual, todas las
especificaciones de Internet fueron publicadas y puestas a disposición de cualquier empresa que
quisiera desarrollar una tecnología compatible.
A principios de 1983 una nueva manera de interconectar redes había sido lo suficientemente
desarrollada, probada y depurada como para ser de utilidad al ejército de los Estados Unidos y
ARPA conectó a Internet todas las unidades militares.
Mientras ARPA auspiciaba el proyecto Internet, ingenieros de la empresa Bell desarrollaban otra
tecnología: el sistema operativo Unix. Hasta ese momento cada sistema operativo había sido
desarrollado para una determinada arquitectura de ordenador, es decir, para una determinada
estructura del hardware. En consecuencia, el desarrollo de una nueva arquitectura de ordenador
exigía la implementación de un nuevo sistema operativo. Bell aspiraba a desarrollar un sistema
operativo portable, es decir, adaptable a cualquier arquitectura de ordenador. A fin de probar la
portabilidad de la tecnología Unix, Bell decidió hacer público no sólo el uso de este sistema
operativo, lo que significaba su distribución libre y gratuíta, sino el sistema operativo en sí, de
manera que hizo público el código fuente de Unix e instó a profesores y estudiantes a que lo
probaran en nuevas máquinas, siendo en la Universidad de California en Berkeley donde el interés
por Unix fue mayor.
La agencia federal ARPA, al caso de esta movida, supo ver la enorme capacidad productiva que se
ponía en marcha gracias a la libre distribución del software y negoció un convenio de investigación
con la universidad de Berkeley: ARPA suministraba a la universidad una copia del software
desarrollado en el proyecto Internet, y los investigadores universitarios se comprometían a
incorporar este software en las nuevas versiones de UNIX.
A partir de este momento un sistema operativo de libre distribución conocido como UNIX contenía
todo el software necesario para poner en marcha una red bajo la tecnología Internet. Muchos
universitarios construyeron redes experimentales con fines académicos utilizando este software y
empezaron a proliferar internets que, aunque no estaban conectadas físicamente con Internet,
utilizaban la misma tecnología y experimentaban con ella.
A finales de los años setenta, muchos investigadores industriales y académicos manifestaban la
necesidad del trabajo en red. La agencia federal NSF (National Science Foundation), responsable de
la investigación y enseñanza de ingenierías, asumió el proyecto de interconectar a todos los
investigadores informáticos en una sola red que se llamaría CSNET. ARPA apoyó el proyecto y
ofreció Internet como infraestructura para CSNET. CSNET proporcionó conexiones Internet a los
departamentos de informática de los centros universitarios pero, como la conexión a era cara,
desarrolló maneras de proporcionar los servicios de la red sin una conexión física completa, siendo
así como Internet comenzó a ofrecer distintosmodos de acceso. El hecho de proveer de acceso a
Internet a los centros académicos tuvo resultados multiplicadores. Muchos estudiantes en busca de
temas para sus proyectos de fin de carrera investigaron sobre Internet, pusieron a prueba la
capacidad de la red, idearon aplicaciones para probar su funcionalidad y aportaron entusiasmo,
creatividad y capacidad productiva. Cuando en 1983 el ejército de los Estados Unidos decidió
utilizar Internet como red operativa, muchos investigadores, profesores y estudiantes de centros
universitarios habían contribuido a la robustez de esta nueva tecnología.
Durante los años siguientes, Internet se consolidó como infraestructura para la comunicación. El
crecimiento de Internet no debe sólo medirse, como suele hacerse, en términos de cantidad de
máquinas conectadas, sino también en términos de su funcionalidad estructural. Distintas agencias
federales de los Estados Unidos, tales como la NASA (National Aeronautics And Space
Administration) o el DOD (Departament of Defense) adoptaron la tecnología Internet bien fuera
con conexión física o sin ella, mientras que la NSF apostó por Internet como medio de conexión
entre investigadores en pro de la mayor competitividad de Estados Unidos en el mercado mundial.
Y la estructura física de Internet quedó pequeña.
En 1987, la NSF asumió la construcción de una nueva columna vertebral para Internet, adjudicando
en concurso público las líneas de transmisión de larga distancia a MCI, los ordenadores a IBM y la
operatividad de la red a MERIT. Internet triplicó su capacidad, pero a finales de 1991 de nuevo
quedó pequeña. La NSF decidió dejar de sufragar los gastos de Internet e implicó a las empresas
privadas en la construcción de una nueva columna vertebral, de manera que IBM, MCI y MERIT
formaron una asociación llamada ANS (Advanced Networks and Services) que construyó una nueva
columna vertebral para Internet conocida como ANSNET. En esta ocasión su capacidad se
multiplicó por treinta, y por primera vez los cables y ordenadores sobre los que se sustenta Internet
dejaron de pertenecer al gobierno de los Estados Unidos para pertenecer a una empresa privada,
iniciándose así el proceso de privatización de Internet y su uso como red comercial tal y como hoy
la conocemos, es decir, como un terreno abonado para la venta no sólo de ordenadores y programas,
sino que también de accesos y servicios.
Mientras en los Estados Unidos se desarrollaba la tecnología Internet, en Europa se desarrollaba con
el mismo propósito la tecnología X.25. Aunque en sus aspectos artefactuales las tecnologías Internet
y X.25 vienen a ser la misma cosa, difieren enormemente como tecnologías simbólicas. A diferencia
de Internet, en cuyo desarrollo fueron implicadas multitud de capacidades productivas, la tecnología
X.25 fue desarrollada y aplicada bajo el control de las compañías telefónicas, que son monopolios
de sus respectivos estados. El caso es que mientras la tecnología X.25 se desarrolló exclusivamente
como tecnología artefactual para el transporte de la información (servicios bancarios, reservas en
ferrocarriles o líneas aéreas...) Internet incorporó multitud de servicios que son reflejo de la
pluralidad de subjetividades que intervinieron en su construcción. Desde juegos de rol hasta
comunicados del subcomandante Marcos, potencialmente todo lo que hoy es decible se dice en
Internet. Por eso, mientras que otras redes de redes han pasado desapercibidas, Internet es un
fenómeno que, dicho sea de paso, entró en Europa financiado por IBM.
Internet no es el único servicio de comunicación disponible que enlaza ordenadores, pero difiere de
los servicios pioneros como Compuserve, USENET o American Online. Mientras que estas redes
comerciales fueron diseñadas atendiendo al servicio que debían prestar, es decir, adaptando su
hardware y su software a la mejor prestación del servicio, Internet no ha sido diseñada para ofrecer
ningún servicio específico. La especialización que en principio favoreció la competitividad de los
servicios telemáticos ha redundado al mismo tiempo en su falta de competitividad, pues los costos
de agregar nuevos servicios a redes diseñadas para otros usos son muy elevados. Por el contrario,
Internet no ha sido diseñada para ofrecer ningún servicio en particular y puede, por tanto, ofrecerlos
todos incluyendo aquéllos que ni siquiera habían sido concebidos cuando se desarrolló la tecnología
básica. Flexibilidad, versatilidad y adaptabilidad (cualidades todas ellas muy valoradas por la
patronal) confieren a Internet ese carácter de tecnología-infraestructura universal hegemónica en el
mercado de las redes de redes.
El software que proporciona los servicios en Internet está organizado según dos capas funcionales:
la capa inferior contiene el software necesario que permite la comunicación entre ordenadores, y se
conoce como TCP/IP. La capa superior está formada por las aplicaciones que proporcionan los
servicios. El conjunto de protocolos TCP/IP es el software que proporciona los recursos de
comunicación básicos utilizados en Internet, y constituye la base sobre la que se sustentan todos los
servicios.
A pesar de la diversidad de servicios que ofrece Internet y de las distintas apariencias que estos
servicios adoptan, todas las aplicaciones que corren en Internet siguen el mismo modelo de
organización y se ajustan al paradigma conocido como cliente-servidor.
La interacción de dos ordenadores bajo el modelo cliente-servidor significa que uno de ellos ofrece
un servicio y el otro lo demanda o, dicho de otro modo, que el ordenador cliente solicita un servicio
que el ordenador servidor le presta. Por ejemplo, si en un ordenador un programa servidor maneja
archivos, entonces un programa cliente en otro ordenador le podrá solicitar la transferencia de uno
de esos archivos. Si un servidor maneja un juego multiusuario, quien quiera participar en el juego
deberá disponer de un programa cliente y solicitar un acceso al servidor del juego.
La adopción del modelo cliente-servidor como paradigma de interacción no es un asunto inocente,
pues determina absolutamente (igual que nuestras democracias) no aquello que puede decirse, sino
el procedimiento para decirlo.
Aunque en sentido informal hablamos de ordenadores que se conectan, en sentido estricto
únicamente los programas se pueden comunicar. Cuando en Internet se establece una conexión ello
significa que dos programas, necesariamente uno en calidad de cliente y otro en calidad de servidor,
están interactuando.
Aunque Internet no "cierra" y siempre está dispuesta a transportar información de un punto a otro,
no hay por qué suponer que la comunicación siempre es posible. En cierto modo, Internet funciona
como una red telefónica: el programa cliente debe llamar y el programa servidor debe responder la
llamada antes de que la comunicación sea efectiva. Dicho sea de otro modo, la comunicación sólo
es posible si el servidor está en funcionamiento y acepta llamadas.
Debido a que son los programas y no los ordenadores los que se comunican, y debido a que los
ordenadores pueden ejecutar varios programas simultáneamente, cada ordenador puede participar
en muchas conversaciones al mismo tiempo, actuando en unas como cliente y en otras como
servidor.
Internet es una red entre iguales o, con otras palabras, es una tecnología punto a punto (peer-to-peer
networking). El términopunto a punto enfatiza la relación simétrica entre todos los ordenadores
conectados a la red, la ausencia total de niveles jerárquicos, la posibilidad de interactuación en
modo indeterminado de todos con todos, y por tanto la facultad de cualquier ordenador de iniciar
arbitrariamente la conversación con cualquier otro. Las redes entre iguales carecen de la
vulnerabilidad de aquellas otras organizadas según el modelo maestro-esclavo, en las que existe un
lugar central (un ordenador) desde el que se organiza la conversación. El ordenador maestro se
dirige reiteradamente a cada uno de los ordenadores esclavos y pregunta ¿tienes algo que decir a
alguien? Si la respuesta es afirmativa el esclavo envía los datos al maestro, que a su vez los envía al
esclavo destinatario, y así sucesivamente.
Si el modelo maestro-esclavo puede describirse como "habla sólo cuando se te pregunte", el modelo
punto a punto se describiría como "todas las iniciativas comunicativas son bienvenidas" o incluso
"di lo que sea, pero no calles". Ahora bien, el hecho de que cualquiera pueda iniciar la conversación
no significa que ésta carezca de reglas. Antes se ha mencionado que el software Internet está
organizado en dos capas funcionales. Pues bien, en la capa inferior, aquella que garantiza la
comunicación, Internet es una red punto a punto, mientras que en la capa superior, aquélla que
ofrece servicios, Internet es una red cliente-servidor.
A modo de resumen, digamos que utilizar Internet, a parte de las cuestiones relacionadas con el
acceso a la red, supone discernir el tipo de servicio que se quiere utilizar, disponer en nuestro
ordenador de un programa cliente para ese servicio, y conocer la dirección Internet de un servidor al
que se le solicitará el servicio.
La tecnología Internet es, entre otras muchas cosas, un paradigma de interacción. Es cierto que en la
red hay muchos recursos disponibles, especialmente el recurso información, pero a pesar de la
abundancia informativa no basta con "estirar la mano y tomar lo que se necesita"; eso "que se
necesita" hay que pedirlo según las reglas del juego. Naturalmente, las reglas pueden saltarse y la
transgresión electrónica en forma de expropiación de la información ha sido la actividad favorita de
los hackers (practicantes del libre acceso a la información) y los crackers (terroristas informáticos
con afán destructivo), pero en las redes, para transgredir, hay que saber.
La gama de servicios que ofrece Internet no es algo definitivamente cerrado. Nuevos servicios
pueden añadirse si se programan aplicaciones servidoras y clientes adecuadas. Y es posible que
otros servicios desaparezcan o queden muy restringidos, simplemente dejando de programar
aplicaciones servidoras y clientes de libre distribución (gratuitas). Se listan a continuación los
servicios más utilizados:
1. Servicios que manejan información previamente grabada:
1. Correo electrónico (e-mail): similar a la correspondencia.
2. News: similar a una discusión, no en tiempo real, en un grupo de afinidad.
3. FTP: transferencia de ficheros. Este servicio permite obtener la copia de un fichero, sin importar
lo que éste contiene. La transferencia de archivos se utiliza para obtener nuevos programas clientes
o servidores y ejecutarlos en la propia red.
4. Telnet: acceso remoto a otra máquina. Mediante este servicio se puede trabajar efectivamente en
otro ordenador (el ordenador de la empresa, de la facultad, etc.) desde un lugar remoto (por ejemplo
desde casa).
5. Archie, Verónica: búsqueda automatizada. Se utiliza para conocer la localización de un archivo
cuyo nombre o descripción se conoce.
6. Wais: búsqueda automatizada de contenido. Se utiliza para localizar archivos cuyo contenido se
conoce en parte.
2. Servicios de comunicación directa:
1. Talk: similar a una conversación telefónica pero sin sonido, de manera que los mensajes enviados
deben escribirse con el teclado, y los recibidos deben leerse en la pantalla.
2. IRC: similar a Talk pero múltiple.
3. Teleconferencia de audio: similar a una conversación telefónica múltiple con sonido.
4. Teleconferencia de vídeo: similar al videoteléfono en una conversación múltiple con imagen y
sonido.
5. Whiteboard: permite la generación de un documento escrito por parte de varios participantes
colectiva y simultáneamente.
6. Mud: juego en tiempo real con múltiples participantes.
No se ha incluido en esta lista el servicio probablemente más utilizado: aquello que se conoce
como navegar. La navegación en Internet se basa en el hecho de que tanto la información como los
servicios tienden a estar integrados en una única estructura. A causa de esta integración establecida
mediante múltiples enlaces y referencias, los servicios (modos de acceso), los menús (opciones de
acceso) y la información en sus múltiples codificaciones de texto, imagen, sonido, imagen en
movimiento o realidad virtual (acceso propiamente dicho) se organizan como una misma cosa,
denominada WWW (World Wide Web).
A diferencia de una búsqueda, en la que se sabe lo que se quiere encontrar y se utiliza un
procedimiento automático, la navegación sitúa al navegante en posición de protagonista de su
propio deambular. La navegación, efectuada a base de elecciones continuas e indeterminadas, es
una interactuación con la red mediante la cual el navegante no queda reducido a mero espectadorconsumidor del espectáculo telemático, sino que asume el papel de protagonista de su propia
aventura y virtualmente construye su propia historia. La posibilidad de navegar confiere a Internet
una componente simbólica, puesto que funciona como una puerta abierta a la posibilidad de nuevas
experiencias en un mundo inagotable de realidades virtuales que sin embargo conectan con las
subjetividades y crean realidades materiales. El hecho de que en muchas ocasiones la navegación
sea impracticable (lentitud, fallo en los enlaces, precio...) no es necesariamente un argumento contra
las espectativas que ofrece, de la misma manera que el aburrimiento que produce la televisión no
necesariamente conlleva dejar de verla.
Internet (como muchos otros) es un producto anónimo producido por una empresa social (sin patrón
concreto) y en cuya producción han participado muchos trabajadores que no han recibido por su
trabajo salario directo alguno. Este producto social, como se ha relatado más arriba, ha sido
posteriormente privatizado y apropiado por empresas concretas merced a determinaciones políticas,
o sea, de poder. Que sea un producto social del cual nadie se preocupa lo más mínimo por saber
quién fue su inventor, descubridor o constructor no significa que sea un producto autónomo o
neutro. Puesto que en el actual ciclo productivo el producto debe ser vendido mientras es fabricado,
y fabricado mientras es vendido, no pueden secuenciarse con nitidez los tiempos y lugares de la
producción, distribución, venta, consumo y reproducción. El trabajo se parece cada vez más a
aquello que consigue su objetivo en el propio realizarse y cuyo resultado es lo único que debe ser
controlado, o sea, la prestación de un servicio, aunque paradójicamente el salario se continúa
midiendo por el tiempo de trabajo puesto a disposición de la empresa concreta, y la relación salarial
continúa siendo la fuente del derecho a muchas de las prestaciones sociales: subsidio de desempleo,
viudedad, subsidio agrario, subsidio por enfermedad, jubilación... Pero la capacidad de trabajar
(ganas, necesidad, miedo, entusiasmo, aceptación, autoimplicación, adiestramiento...) no está dada
de una vez por todas, y como cualquier otro producto debe ser producida y producida, además,
continuamente. Su producción no puede ser una producción "en serie", sino que debe tener la
apariencia de una autoimplicación libre que permita a cada cual "construirse a sí mismo" pero
construirse, eso sí, para ser productivo. En este proceso de producción de la capacidad de trabajar
entra todo, y por supuesto entran actividades consideradas por "el sentido común" como no
productivas, tales como hacer el amor, conversar con un amigo o ver la televisión. Producir no
puede ser identificado con cansarse o con percibir un salario y, contradiciendo las tesis oficiales, lo
difícil dada la naturaleza del actual ciclo productivo esestar en paro, aunque evidentemente todas las
formas que reviste el trabajo no son igualmente penosas, insalubres, peligrosas, humillantes o
aburridas.
La actual manera de producir (llámese descentramiento de la actividad productiva, posfordismo,
productividad social...) precisa y produce redes: redes para hacer negocios, pero también para
producir capacidad de trabajo y, por supuesto, para enrolar fuerza de trabajo eludiendo la relación
salarial, la negociación colectiva y los límites legales del despido. Si la complejidad de las redes
sociales puede ser metida toda ella en una red telemática, si es posible (y deseado) dejar de producir
o, como alguien ha dicho en Internet, si la realidad sólo tiene píxels, ésa es la cuestión.
El Proyecto GNU/Linux:
el ‘general intellect’ en red
Los orígenes
El proyecto GNU (GNU's Not Unix, "GNU no es Unix") nació hacia 1983 de la mano de Richard
M. Stallman y la Free Software Foundation. Pretendía recuperar el espíritu de cooperación que
había en el mundillo de la contracultura hacker a mediados de los años setenta y que había sido
literalmente barrido con la entrada de las grandes corporaciones (IBM, Hewlett Packard...) en el
terreno de la informática personal. Hasta 1981 –año en que IBM lanza el primer ordenador personal
asesorado en cuanto al diseño y la funcionalidad por el ex hacker Bill Gates– las grandes
corporaciones informáticas habían despreciado la informática personal por no considerarla viable
comercialmente, y sólo el empeño militante de hackers y de aficionad@s a la electrónica había
conseguido llegar a materializar ordenadores personales totalmente artesanales. Durante los años
setenta, colectivos de hackers en el Sillicon Valley californiano promovían un uso político de la
informática personal, una especie decomputopía en la que cada persona podría disfrutar de un PC
conectado vía telefónica con l@s demás, participando así directamente en la vida ciudadana y en las
decisiones que atañían a la comunidad. En los entornos de hackers (BBS, revistas, colectivos...), la
política de la representación y la democracia parlamentaria como forma de articular lo social
quedaban en serio entredicho. Su modo de cooperar, de comunicarse el conocimiento, de
reapropiarse de la tecnología y de sabotear a las grandes compañías de telecomunicaciones (los
phone-phreakers enseñaban a pinchar el teléfono y a construir "cajas azules" con los que conectarse
al teléfono sin pagar, a la vez que realizaban sabotajes a Ma Bell) o informáticas (entrada y sabotaje
de grandes redes corporativas) no dejaba lugar a dudas sobre su planteamiento acerca del uso de las
nuevas tecnologías como "arma del pueblo". Para llevarlo a cabo, se basaban en lo barato de los
componentes con los que se construyen los microprocesadores y las memorias (el silicio es como la
arena y lo hay por todas partes) y en las posibilidades de comunicación horizontal y de
interactividad que ofrecía el modelo de red. Sin duda esta gente no andaba nada desencaminada y
anticiparon muchas cosas que hoy día nos resultan cotidianas, como el PC conectado a la línea del
teléfono y la propia red Internet.
Pero el modo en que se ha llegado a ello ha sido por una vía muy diferente a aquellos
planteamientos comunistas de los primeros hackers. Buena parte de ellos (Gates, Wozzniak, Jobs y
muchos otros) se convirtieron en prósperos empresarios, aprovechándose del saber acumulado
como hackers y de todo el terreno que habían ganado a las corporaciones que durante años les
dejaron el terreno libre. Transnacionales como Apple, Microsoft e incluso Intel tienen su origen en
el mundillo hacker californiano de los setenta. Cuando IBM por fin entra en el negocio en 1981 –no
sólo no inventa nada como se suele creer, sino que lo único que hace es subirse al carro a última
hora– supone el pistoletazo de salida para que todas las demás corporaciones informáticas
dedicadas hasta entonces a trabajar para el gran capital (bancos, militares e instituciones privadas
y/o estatales), se lancen a la carrera por la "informática personal". Pero el planteamiento,
evidentemente, dista mucho del que le daban aquellos primeros hackers al concepto de "ordenador
personal": se convierte pura y simplemente en un objeto de consumo caro y elitista. Por eso, a
mediados de los ochenta, había hackers –algunos supervivientes de los años setenta como Stallman
y otros jóvenes descontentos con el rumbo que adoptaba la informática personal– que se revelaron
contra ese estado de cosas. Nacía el proyecto GNU.
El proyecto GNU
El proyecto GNU surge como reacción frente a la imposición del software propietario, que impedía
la cooperación entre l@s usuari@s y fomentaba prácticas exclusivamente mercantilistas. El objetivo
de GNU es permitir a l@s usuari@s el usar un ordenador sin tener que renunciar a las ventajas que
le proporciona la tecnología digital y sin tener que renunciar al espíritu colaborador y constructivo
que se beneficia de estas ventajas. Es evidente que es una licencia, uncopyright, y no el propio
programa ni la tecnología digital lo que impide hacer libre uso de los bits y que son los fabricantes
de software propietario quienes –al distribuir los programas compilados y sin el código fuente,
cuando no protegidos contra la copia–, impiden "entender" el programa para poderlo estudiar,
mejorar, adaptar o portar según sus necesidades. El proyecto GNU aboga por la libertad para
estudiar cualquier programa y modificarlo de acuerdo a las propias necesidades; reclama también el
derecho a distribuir copias a quien se quiera y sin límite alguno y, por último, reclama la libertad de
toda la comunidad de usuari@s de mejorar el programa y distribuirlo de tal manera que se puedan
beneficiar todos los integrantes de la propia comunidad. A los programas que reúnen estos
requisitos se les denomina "free software" o "programas libres" y están protegidos por
el copyleft que se plasma en la GPL (Licencia Pública General). A diferencia del copyright, que
protege la propiedad frente al uso, el copyleft protege el uso libre frente a la propiedad e impide que
nadie se apropie o limite la libre circulación del saber.
Para poder plasmar toda la filosofía del free software, era requisito indispensable la construcción de
un sistema operativo libre. Todos los ordenadores necesitan un sistema operativo para funcionar. Si
no se dispone de un sistema operativo libre no se puede ni siquiera arrancar un ordenador sin usar
software propietario. De modo que GNU consiste tanto en la construcción de un sistema operativo
libre completo como en el proyecto cooperativo y non profit para desarrollarlo. GNU eligió como
sistema de partida a Unix por varias razones: sus características básicas lo hacen muy interesante
(multitarea, multiusuari@); estaba muy implantado entre l@s usuari@s desde hace muchos años y
ya existía para Unix un buen número de partes que eran free software y que podían de ese modo
reutilizarse.
A comienzos de los años noventa ya se disponía del armazón del sistema GNU pero faltaba una
parte básica: el núcleo del sistema operativo (técnicamente denominado kernel). Es en ese momento
–1991– cuando hace su aparición el estudiante finlandés Linus Torvalds que con 21 años se pone a
desarrollarlo en la Universidad de Helsinki. Linus y otros colaboradores realizaron el kernel, que
fue registrado bajo licencia GPL como Linux (contracción de Linus y Unix). De modo que el kernel
Linux combinado con el resto del sistema GNU constituyeron un sistema operativo libre completo
que popularmente (aunque algo impropiamente, pues el kernel es sólo una parte del sistema) se le
empezó a denominar Linux.
Linux
Hace aproximadamente cuatro años desde su aparición y Linux posee ya incontables usuari@s
(entre tres y ocho millones de máquinas) y colaboradores desinteresad@s en el proyecto de
desarrollo. Linux, en desarrollo permanente, no es obra de ninguna empresa –si acaso, de una
"empresa" colectiva– ni de nadie en concreto (Linus ha escrito sólo unas 50.000 líneas de código,
del más del millón que de momento tiene), es fruto de la cooperación a través de Internet, de hecho
es impensable sin Internet. Se distribuye gratuitamente a través de la red con el código fuente, que
permite que cualquiera con conocimientos de programación pueda estudiarlo, mejorarlo o adaptarlo
a sus necesidades, teniendo en cuenta que esas mejoras, cuando merecen la pena, pueden pasar al
conjunto del sistema. Como la construcción de las catedrales medievales, sin arquitecto, Linux va
componiéndose a base del trabajo y de la cooperación de un colectivo difuso de gente en todo el
mundo que en la mayoría de los casos ni siquiera se conoce personalmente pero que coordina un
trabajo muy complejo y delicado para mantener la unidad y la coherencia funcional del sistema.
Ningún sistema tiene semejante apoyo ni está tan documentado, ningún sistema crece y se
desarrolla a la velocidad en que lo hace Linux. Sólo hay que asomarse un poco a través de
lasnews de Internet a las comunidades de linuxer@s para ver el entusiasmo y la energía que
despiden y el espíritu cooperativo que les asiste.
Como sistema operativo, Linux probablemente es mejor que cualquiera de las versiones de
Windows (95 o NT). Pero no creo que se trate de comparar cosas que son incomparables (uno
apoyado por campañas de marketing multimillonarias a nivel mundial con otro sin apenas respaldo
comercial) ni que sea esta la discusión que nos interese en un entorno como el nuestro, que pretende
hacer un uso antagonista de la tecnología. Aunque Linux fuera peor, creo que habría que apostar por
él. Linux es algo más que un sistema operativo, es toda una forma de pensar y de crear que va más
allá de un simple desarrollo tecnológico (ver artículo adjunto: "Linux: el socialismo de la
programación"). Linux supone el máximo exponente de una filosofía non profit, antimercantilista:
el software no es más que un producto del conocimiento humano y como parte de ese conocimiento
debe ser compartido con l@s demás. Alejado de cualquier planteamiento comercial, GNU no cae en
la ingenuidad en un mundo ultramercantilizado (por eso se protege de los depredadores comerciales
con copyleft) pero tampoco entra en la guerra anti-Microsoft ni en el márketing fácil de convertir a
Linus Torvalds en un gurú a lo Bill Gates. Simplemente mira para otro lado y construye un sistema
muy superior técnicamente a Windows, no derrocha los recursos de la máquina y funciona
perfectamente en ordenadores desechados por obsoletos en entornos Microsoft. Y no se debe
cometer el error de valorar Linux únicamente por ser gratis, pues la gratuidad es a veces una
estrategia comercial más (un ejemplo, el navegador Explorer de Microsoft). Es importante que el
proyecto GNU siga para adelante porque es una potentísima línea de fuga del capital en un terreno
tan estratégico como es el del ordenador personal y porque es una creación colectiva y
autogestionada –puro general intellect o puesta en concierto de un saber social general– en el
corazón del mando capitalista, basado en la propiedad privada y en el control sobre el saber
colectivo.
Como cualquier sistema en desarrollo, Linux ofrece ciertas dificultades de uso a l@s neófit@s,
sobre todo porque hasta ahora no se ha dado prioridad al interfaz de usuario, sino al desarrollo de
herramientas que permitieran el propio desarrollo del sistema. Resulta un poco árido especialmente
a quien está habituad@ a que se lo den todo masticado, como es el caso de quien viene de las
últimas versiones de las ventanitas güindoseras desde las que se fomenta la ignorancia absoluta del
medio. Pero esta dificultad técnica no debería llevar a la acusación de Linux como sistema elitista
para hackers o para especialistas que sibilinamente se desliza desde entornos propietarios y que
alguna gente por inercia repite sin haber visto los últimos entornos de ventanas en Linux, bastante
funcionales e infinitamente más estables que cualquiera de las versiones Windows, con todas las
aplicaciones básicas (procesadores de texto, paquetes integrados como StarOffice, sonido y por
supuesto todo lo relacionado con las comunicaciones vía red). En cualquier caso, el esfuerzo creo
que merece la pena, no sólo desde un punto de vista técnico –Linux no se cuelga, no se
desconfigura, no tiene virus, está totalmente orientado a Internet, a la comunicación y a las redes, y
su interfaz no te trata como si fueras estúpid@–, sino político: es muchísima la gente que en el
entorno Linux se mueve con ideas políticas difusas y a veces contradictorias, sí, pero pergeñando
verdaderas prácticas antagonistas, cooperativas y anticapitalistas por la libre circulación del saber.
PGP
autodefensa digital
PGP (Pretty Good Privacy, "privacidad bastante buena"), "encriptación de clave pública para las
masas", es un pequeño programa de ordenador que sirve para cifrar y descifrar textos y archivos de
datos y para hacer firmas digitales mediante sistemas de criptografía. A nosotr@s nos va a servir
fundamentalmente para proteger los mensajes que enviamos a través del correo electrónico. Es
llamativo cómo nos relajamos con el uso del mail, escribiendo cosas que nunca contaríamos por
teléfono o por carta, como si fuese más seguro el ordenador que, por ejemplo, el teléfono. Y resulta
que es justo al contrario: pinchar el teléfono o abrir la correspondencia de modo masivo no es nada
sencillo (requiere alguien que escuche o que lea uno por uno) y, sin embargo, es tremendamente
fácil pinchar algún servidor a través de los que pasa el correo electrónico y leer un mensaje o, peor
aún, establecer un filtro automático de modo que se almacenen selectivamente aquellos mensajes
que cumplan una cierta condición (el remitente, cierta palabra, etc.). Lo hace la máquina, no
requiere intervención humana más que para visualizar el resultado del pinchazo.
Breve reseña histórica
La criptografía es un arte muy antiguo –aparece ya en los jeroglíficos egipcios y en textos
cuneiformes; los judíos la usaron desde Jeremías y también Julio César nos dejó su nombre
encriptado– usado para proteger el secreto de la correspondencia mediante escritura convencional.
El procedimiento más sencillo (el de Julio César por ejemplo) consiste en desplazar un número
constante cada letra del alfabeto –a por ejemplo se convierte en D,b en E, c en F, etc.– con lo que
resulta un texto ilegible para quien desconoce el método. Este método evidentemente es muy fácil
de descubrir, pero los antiguos usaron ya algoritmos de trasposición y sustitución de letras bastante
más complejos. Modernamente han sido los militares y los servicios secretos de los Estados quienes
más lo han desarrollado, inventando máquinas cifradoras (manuales o mecánicas) que permitían
utilizar con rapidez los métodos de sustitución o sistemas de códigos cifrados (los famosos
diccionarios de claves de las películas de espías). Los bancos también han estado últimamente muy
interesados en la criptografía como forma de evitar cualquier otra operación fraudulenta que no sea
las que ellos mismos realizan.
Con la introducción de los ordenadores y su formidable capacidad para el cálculo intensivo, se han
podido desarrollar y llevar a la práctica algoritmos extraordinariamente complejos, hasta el punto de
que se piensa que sólo el ensayo sucesivo de todas y cada una de las posibilidades (a esto se le
llama "ataque de fuerza bruta") podría llegar a "romper" (descrifrar) estos códigos. Eso ha hecho
que los antiguos métodos manuales hayan quedado muy desfasados y se consideren solamente
formas de camuflaje de textos y no verdaderos métodos de encriptación.
Desde sus orígenes, los sistemas informáticos de encriptación han estado en manos del poder
(gobiernos, ejército, bancos, corporaciones privadas), que iba ensayando algoritmos cada vez más
sofisticados aunque casi siempre se encontraban con un problema insoluble derivado de usar el
método de "clave secreta", con el que las partes que se quieren comunicar debían conocer
previamente la clave. En 1991 un programador que trabajaba para la NASA –Phil Zimmermann–
ante la perspectiva inminente de que se ilegalizara en Estados Unidos el uso libre –no controlado
por el Gobierno– de la criptografía decide hacer público el código fuente del PGP y ponerlo a
disposición de todo el mundo en Internet. Se armó un tremendo escándalo que le condujo a la cárcel
en 1993 acusado de exportar armas militares. Semejante estatus se le daba a un programa
informático: arma militar. El fiscal pedía varios años de cárcel y una multa elevadísima. Finalmente,
y gracias a una extraordinaria campaña a favor de su libertad realizada a nivel mundial a través de
Internet y de movilizaciones en la calle en Estados Unidos, Zimmermann salió libre de cargos y hoy
día cualquiera puede obtener versiones mejoradas de PGP en numerosos servidores de FTP de
Internet, aunque la legislación estadounidense mantiene un control penal para la importación y
exportación de PGP.
¿Qué es el PGP?
No voy a entrar en detalles técnicos, pero creo que sí es interesante estar familiarizad@ con el
modo de funcionamiento de PGP y su diferencia con otros sistemas de encriptación. El PGP usa un
sistema de clave pública. Como he mencionado más arriba, anteriormente los sistema de
encriptación más empleados –de clave secreta– precisaban que el/la remitente y el/la destinatari@
se comunicaran de algún modo dicha clave. La clave secreta servía para encriptar y para
desencriptar. Eso obligaba a que el intercambio de la clave debía realizarse por un "canal seguro"
(pues de otro modo puede caer en manos de quien no debe :-) y de nada iba a servir encriptar). Pero
resulta que si se dispone de un canal seguro no hace falta encriptar nada. Para solucionar este
problema y poder transferir la clave por canales no seguros o sin necesidad de hacerlo
personalmente, se ideó un sistema llamado de "clave pública", que básicamente consiste en crear
dos claves diferentes generadas a la vez, una para encriptar y otra desencriptar. Se consiguió crear
un algoritmo en que a partir de la clave de descifrado era imposible deducir la clave de cifrado con
lo cual se podía hacer pública esta última a cuanta más gente mejor (la "clave pública"). Eso
permitió masificar el uso de la encriptación al poderse usar canales no seguros para transferir la
clave sin miedo a que alguien la intercepte. El mensaje se encripta usando simultáneamente la clave
secreta del/la remitente y la clave pública del/la destinatari@. Para desencriptar se hará al revés:
el/la destinatari@ usará la clave pública del/la remitente y su clave secreta (la del/la destinatari@).
Se consigue así que cada mensaje únicamente pueda ser desencriptado por la persona a quien se lo
dirigimos hasta el punto de que, una vez encriptado, ni siquiera quien lo ha encriptado puede volver
a desencriptarlo: sólo a quien ha sido enviado puede hacerlo mediante su clave privada (más la
clave pública del remitente). Es como el anillo de Schazan, hacen falta las dos mitades de la llave, y
esa llave es siempre distinta porque es generada aleatoriamente mediante una frase secreta
(passphrase) que sólo necesita conocer el remitente. Eso convierte a un mensaje encriptado con PGP
en irrompible a no ser que se conozca la passphrase.
Otro uso muy importante del PGP –aunque creo que no para nosotr@s, sino más bien para
cuestiones legales y para transacciones comerciales– es la posibilidad de firmar digitalmente un
documento. Por ejemplo, puede interesar enviar un mensaje claro para que lo pueda leer cualquiera
pero queremos que llegue intacto, que nadie lo manipule y que sepamos con total seguridad que lo
ha escrito quien dice haberlo hecho. Es decir, la firma digital impide técnicamente falsificar un
mensaje o suplantar la personalidad de otr@ para enviar un mensaje. Si se ha manipulado en algún
momento, PGP avisa de ello.
Pero ¿por qué es tan importante el PGP?
Que un fiscal lo considerara un arma militar no fue una ida de olla. La dimensión política de PGP es
extraordinaria, se trata de una máquina insólita en nuestro tiempo. Asegura a cualquier persona que
sepa usar un ordenador la total privacidad de sus comunicaciones escritas a través de la red. Total
privacidad significa que nadie que no sea el destinatario del mensaje podrá de ningún modo leer su
contenido. Nadie significa nadie: ni la policía, ni todos los servicios de seguridad de todos los
Estados trabajando juntos. Nadie. Porque nadie ha conseguido romper PGP ni es previsible que lo
logre en un número muy significativo de años. Hasta hace poco, sistemas de blindaje tan poderosos
sólo estaban al alcance de los Estados. En cualquier parte del mundo, el Estado –a través de los
jueces o de la policía directamente– se reserva la posibilidad de intervenir la correspondencia o
pinchar el teléfono o registrar a la fuerza el domicilio de quien sea. Con PGP no se puede hacer. Es
insólito que una tecnología de inteligencia militar esté al alcance de cualquiera y es insólito que en
la era del Estado-control haya una parcela tan importante como la de la comunicación privada cuyo
control escape al Estado de modo tan sencillo y eficaz. Probablemente, se trata de la primera vez en
que la gente tiene semejante capacidad de defensa frente al poder estatal: la posibilidad real de
proteger sus comunicaciones de un modo seguro y de defenderse de la injerencia de la policía o de
los jueces. Por eso en varios países usar PGP es ilegal (Francia, Rusia, Irán, Irak, China...) e incluso
se paga con la cárcel o con el pelotón de fusilamiento. En el Estado español, por suerte, todavía no
hay legislación al respecto y se puede encriptar tranquilamente. Pero hay que tener cuidado de no
enviar un mensaje encriptado con PGP a países donde podríamos comprometer gravemente al/la
destinatari@ (hay información específica en Internet sobre la situación de las legislaciones en cada
país sobre criptografía).
PGP además es free software bajo licencia copyleft registrada por su autor Phil Zimmermann. Es
decir, no tiene copyright, pertenece a la comunidad de usuari@s y nadie se lo puede apropiar. Puede
ser copiado y distribuido libremente, puede ser estudiado para mejorarlo y para comprobar que no
tiene errores ni "puertas traseras". Al ser público el código fuente de PGP, hay miles de usuari@s
que durante años lo están poniendo a prueba y revisando sus algoritmos para garantizar que no
contiene "puertas traseras" (trucos que un programador puede implementar en el código interno del
PGP para "romperlo" sin necesidad de conocer la clave secreta y sin que nadie lo advierta). Además
PGP funciona en casi todas las plataformas, no sólo en la de las ventanitas.
En Estados Unidos –que sirve como avancilla y ejemplo a otros países a la hora de establecer
políticas restrictivas– el contraataque del Gobierno ha consistido en implementar el chip Clipper. El
chip Clipper es un sistema de encriptación que avala el gobierno para que lo vayan incluyendo los
fabricantes de dispositivos digitales de comunicaciones (modems, fax, teléfonos, etc.). Lo vende
como un sistema que va a garantizar la privacidad de l@s ciudadan@s en sus comunicaciones, pero,
eso sí, el gobierno, a través de los jueces, guarda en depósito la llave de cada clave secreta que se
genere con el chip Clipper. Es decir, que en caso de necesidad (como con la correspondencia
convencional, el domicilio, etc.) puede violar la comunicación privada de cualquiera que use ese
chip. De momento, usar el chip Clipper es voluntario, pero el paso siguiente es muy fácil preverlo:
ilegalizar cualquier sistema de encriptación que no sea Clipper y obligar a implementarlo en
exclusiva. El algoritmo que usa Clipper es secreto, lo cual no asegura su eficacia (sólo poniéndolo a
prueba masivamente, como ocurre con PGP, se puede asegurar con un sistema es seguro) y, sobre
todo, no garantiza en absoluto que no tenga "puertas traseras" que permitan a la policía leer las
comunicaciones sin necesidad de pasar por una orden judicial.
Modo de usarlo
Para instalar y configurar PGP, hay un manual en castellano en http://linux.nodo50.org/seguridad y
el propio programa trae una ayuda en línea en castellano. Aquí sólo me voy a referir a cómo usarlo
desde el ordenador del Laboratorio.
1. Se pide la passphrase a alguien del Área Telemática.
2. Escribimos el mensaje en formato texto (con el word o con la propia ventana de correo,
salvándolo como fichero de texto *.txt y copiándolo en el directorio c:\pgp)
2. Abrimos una ventana del DOS y nos vamos al directorio pgp.
tecleamos cd c:\pgp
3. Tecleamos el siguiente comando para enviárselo, por ejemplo a Marta
pgp -e mifichero.txt marta
o bien si quiero enviarlo a varias personas:
pgp -e mifichero.txt marta david alicia
Esto genera un fichero encriptado que ya podemos enviar pegándolo a un mensaje de correo.
(Se supone que a quien le enviamos el mensaje está en nuestro anillo de claves públicas. Si no, la
persona a quien queremos mandarle el mensaje encriptado debe enviarnos antes su clave pública (o
decirnos de qué servidor pillarla) e incluirla en nuestro anillo. Hay servidores de claves públicas que
se las intercambian entre sí. En http://linux.nodo50.org/seguridad están las claves públicas del
Nodo50 y de Ipanex.)
Para incluir la clave pública de alguien en nuestro anillo tecleamos:
pgp -ka marta.asc
Para desencriptar un fichero:
pgp nombre_de_fichero_cifrado
A modo de conclusión
A parte de PGP, hay otras técnicas interesantes para proteger la confidencialidad del correo como
son los remailer anónimos, servidores que permiten reenviar un mensaje de modo que quien lo
recibe no tenga modo de saber quién se lo ha enviado. Estos servidores no está claro que vayan a
garantizar el anonimato en toda circunstancia, por lo que hay que ser precavid@. Pero la cuestión
de los remailer anónimos constituye un tema en sí mismo que podremos tratar en otra ocasión.
El PGP, como la red Internet y con los propios ordenadores personales, tienen su origen en una
extraña y anómala confluencia de intereses militares y/o comerciales, junto a prácticas antagonistas
y de resistencia antiautoritaria. Podemos oír hablar de PGP a responsables de seguridad de
empresas, o como forma de proteger copyrights y, al tiempo, constituye una herramienta única y
alcance de tod@s para protegernos de esos mismos que tratan de desarrollar formas de control y
dominio cada vez más sofisticados.
Kevin Mitnick lleva en prisión preventiva desde el 15 de febrero del 95. Está acusado de haberse
hecho pasar por otro en una conversación telefónica y haber conseguido así software propiedad de
las mayores compañías de telefonía móvil. De ninguna manera Kevin ha sido acusado de intentar
vender este software, todos los inidicios apuntan a que él simplemente estaba interesado en ver
cómo funcionaba y ver si había agujeros de seguridad intencionados que podrían afectar a los
usuari@s de la telefonía móvil. Las compañías respondieron a estó pidiendo cientos de millones de
dólares cuando lo único que Kevin hizo - incluso atendiendo a la instrucción del caso - es echar un
ojo a ese software.
Durante estos 4 años, a Kevin sólo se le ha permitido recibir visitas de su más cercana familia y de
sus abogad@s.
El 14 de Junio recibirá la sentencia del Juzgado Ferderal de los Angeles, existen dos posibilidades,
que el juez le condene a seguir en prisión o que definitivamente le dejen en libertad. Una vez
terminada la condena, durante los tres años siguientes, las autoridades quieren imponerle unas
restricciones draconianas. No le quieren dejar trabajar en ningún curro relacionado con los
ordenadores y la informática (¿qué trabajos hay hoy en día en los que no se use el ordenador en
algún momento?), no va a poder navegar por la web, ni recibir ni mandar e-mails, pero lo que es
más alucinante, no va a poder contar su verisón de la historia y ni siquiera hablar de
ordenadores con nadie.
Difunde esta información!! » www.freekevin.com
[Traducción libre del flyer de la campaña]
Para el día 4 de Junio se han convocado manifestaciones frente a la embajada yanqui en numerosos
sitios del planeta para pedir la libertad de Kevin. Para más info -> http://www.2600.com/demo/index.html
El Manifiesto Hacker
Hoy han cogido a otro, aparece en todos los periódicos. "Joven arrestado por delito informático",
"hacker arrestado por irrumpir en un sistema bancario". "Malditos críos. Son todos iguales". ¿Pero
pueden, con su psicología barata y su cerebro de los años cincuenta, siquiera echar un vistazo a lo
que hay detrás de los ojos de un hacker? ¿Se han parado alguna vez a pensar qué es lo que les hace
comportarse así, qué les ha convertido en lo que son? Yo soy un hacker, entre en mi mundo. Mi
mundo comienza en el colegio. Soy más listo que el resto de mis compañeros, lo que enseñan me
parece muy aburrido. "Malditos profesores. Son todos iguales". Puedo estar en el colegio o un
instituto. Les he oído explicar cientos de veces cómo se reducen las fracciones. Todo eso ya lo
entiendo. "No, Sr. Smith, no he escrito mi trabajo. Lo tengo guardado en la cabeza". "Malditos
críos. Seguro que lo ha copiado. Son todos iguales". Hoy he descubierto algo. Un ordenador. Un
momento, esto mola. Hace lo que quiero que haga. Si comete errores, es porque yo le he dicho que
lo haga. No porque yo no le guste, me tenga miedo, piense que soy un listillo o no le guste ni
enseñar ni estar aquí. Malditos críos. A todo lo que se dedican es a jugar. Son todos iguales.
Entonces ocurre algo... se abre una puerta a un nuevo mundo... todo a través de la línea telefónica,
como la heroína a través de las venas, se emana un pulso electrónico, buscaba un refugio ante las
incompetencias de todos los días... y me encuentro con un teclado. "Es esto... aquí pertenezco... ".
Conozco a todo mundo... aunque nunca me haya cruzado con ellos, les dirigiese la palabra o
escuchase su voz... los conozco a todos... malditos críos. Ya está enganchado otra vez al teléfono.
Son todos iguales... puedes apostar lo quieras a que son todos iguales... les das la mano y se toman
el brazo... y se quejan de que se lo damos todo tan masticado que cuando lo reciben ya ni siquiera
tiene sabor. O nos gobiernan los sádicos o nos ignoran los apáticos. Aquellos que tienen algo que
enseñar buscan desesperadamente alumnos que quieran aprender, pero es como encontrar una aguja
en un pajar. Este mundo es nuestro... el mundo de los electrones y los interruptores, la belleza del
baudio. Utilizamos un servicio ya existente, sin pagar por eso que podrían haber sido más barato si
no fuese por esos especuladores. Y nos llamáis delincuentes. Exploramos... y nos llamáis
delincuentes. Buscamos ampliar nuestros conocimientos... y nos llamáis delincuentes. No
diferenciamos el color de la piel, ni la nacionalidad, ni la religión... y vosotros nos llamáis
delincuentes. Construís bombas atómicas, hacéis la guerra, asesináis, estafáis al país y nos mentís
tratando de hacernos creer que sois buenos, y aún nos tratáis de delincuentes. Sí, soy un delincuente.
Mi delito es la curiosidad. Mi delito es juzgar a la gente por lo que dice y por lo que piensa, no por
lo que parece. Mi delito es ser más inteligente que vosotros, algo que nunca me perdonaréis. Soy un
hacker, y éste es mi manifiesto. Podéis eliminar a algunos de nosotros, pero no a todos... después de
todo, somos todos iguales.
Este es el último artículo de El Mentor.
Por qué Nodo50 ha dejado de interesarme
by Marga
Estas líneas pretenden ser una crítica de Nodo50. A más de un año desde que unas pocas personas
de Madrid, todas ellas miembros de Nodo50 y vinculadas a los centros sociales okupados, nos
juntáramos con gente de Barcelona para discutir la posibilidad de conectar a Internet un servidor
bajo el nombre sindominio.net en cooperación con Nodo50, las relaciones entre ambos proyectos
han derivado hacia una hostilidad manifiesta que ha supuesto de hecho la ruptura de la asamblea de
Nodo50 y el abandono forzoso de Nodo50 por parte de la gente de SinDominio. Después de año y
medio participando en Nodo50 y tras seis meses de trabajo asalariado en tareas técnicas, que he
debido abandonar a causa de las tensiones entre ambos proyectos y de la falta de confianza de
Nodo50 hacia mí, debo afrontar ahora la posibilidad de que Nodo50, en represalia y utilizando el
trabajo remunerado como una prebenda, vete mis posibilidades de trabajo en sus áreas de
influencia, tales como la CONGDE (Coordinadora de ONGs para el Desarrollo).
Mi propia situación, junto al sufrimiento con que otros compañeros están viviendo esta ruptura, me
plantea la tesitura de: o bien olvidar lo ocurrido, borrón y cuenta nueva, cada quien por su camino y
aquí no pasa nada, o bien dar una dimensión pública y crítica a los desacuerdos entre Nodo50 y
SinDominio.
Este dilema no es una tontería pues, una vez abandonadas las viejas formas de hacer política, creo
firmemente que de nada sirven las cosas (ni los textos) que se hacen en contra de algo y que sólo
cuenta lo que se hace a favor.
Entonces ¿por qué debería yo explicar a gente que está satisfecha con Nodo50 mis problemas? ¿por
qué debería hablar a sabiendas de que lo que diga puede producir enemistad, desconfianza o
desafecto? ¿para qué crear problemas?
Sin embargo, la manera como Nodo50 ha expulsado SinDominio, al igual que un organismo
expulsa un cuerpo extraño, utilizando prácticas de aparato a la vieja usanza que anulan la
posibilidad de construir autonomonía (pues ya sabemos lo que ocurre cuando un aparato actúa como
tal), abre una reflexión muy rica en determinaciones, no sólo porque ambos proyectos están
atravesados por cuestiones tan interesantes como la tecnología, el trabajo, la militancia, la
autoempresarialidad, el mercado, la autonomía, la visibilidad, la identidad o la virtualidad, sino
porque se plantea también la actualidad de la crítica (la crítica de Nodo50, en este caso), la manera
de construir y también de quebrar nuestros proyectos, las prisiones en las que todas las formas de
esperanza nos encierran y, en definitiva, las formas de hacer autonomía en sociedades mediadas por
la tecnología.
Al criticar un proyecto en el que he participado y, por lo tanto, confiado, no pretendo construirme
como víctima explicando una historia de malos contra buenos (plantilla de casi todas nuestras
historias), sino narrar cómo una maraña de sucesivas decisiones, muchas de ellas consideradas en su
momento como poco relevantes, van constriñendo las posibilidades de un proyecto que en sus
inicios estaba por determinar.
Así pues, estas líneas pretenden ser una crítica de Nodo50, pero una crítica a favor: a favor de las
ganas de crear, del placer de hacerlo junto con otra gente en el ciberespacio y en conexión con las
máquinas y, sobre todo, de hacerlo sin esperar nada.
Por qué Nodo50 ha dejado de interesarme
by Marga
El nacimiento de Nodo50
El origen de Nodo50 se remonta a 1993, cuando la campaña "50 Años Bastan" organizada contra las
instituciones de Bretton Woods (Fondo Monetario Internacional y Banco Mundial) decidió dotarse
de una infraestructura telemática como parte del desarrollo de las comunicaciones de la campaña.
En esa época, el desarrollo de la telemática antagonista en España se reducía a unas pocas BBSs
mantenidas personalmente por susSysOps y conectadas a otras mediante el sistema FidoNet.
FidoNet proporcionaba un sistema de intercambio de mensajes de correo electrónico y de noticias
posible gracias a conexiones no permanentes entre sus nodos.
Siendo la ONG SODePAZ quien asumió el área de comunicaciones de la campaña, y a falta de otra
gente que quisiera trabajar en ello, se apoyó en la experiencia de una de esas BBSs alojada en
Madrid (Revolware) para, junto con su SysOp, implementar una BBS con tecnología UUCP sobre
el sistema DeskView conectada en modo no permanente a la red GreenNet. Esta BBS recibió el
nombre de Nodo50.
Para 1993 el desarrollo de las BBSs en España estaba en manos de gente aficionada a la telemática,
pero muy desvinculada de colectivos de acción política, incluso de aquellos colectivos que
trabajaban en temas de contrainformación. La propia BBS Revolware, a la que Nodo50 debe el
lema telemática antagonista y que ahora combina con telemática solidaria y/o telemática alternativa,
había sido ofrecida por su SysOp a la Agencia UPA (colectivo de Madrid dedicado a la
contrainformación) para que ésta asumiera su gestión, ofrecimiento que fue rechazado. Así pues,
hay que reconocer a la campaña "50 Años Bastan" el mérito de haber inaugurado la primera
infraestructura telecomunicativa de gestión colectiva y abiertamente política en España, al tiempo
que hay que notar también los límites de este proyecto pues, una vez finalizada la campaña, los
principales grupos organizadores con capacidad para mantener Nodo50 renunciaron a ello, siendo
entonces cuando SODePAZ asumió su continuidad, y forzosamente también una especie de tutela.
No es el momento de valorar los pros y contras de la campaña como forma de intervención, pero no
cabe duda de que Nodo50 quedó empapado, como no podía ser de otra manera, por esa forma de
intervención. Debemos a la campaña la obtención de recursos económicos (con un superávit de
varios millones de pesetas), que permitieron liberar gente para trabajar en la misma campaña e,
indirectamente, fortalecer los grupos que la organizaban; también le debemos la financiación de
recursos, la resonancia a nivel mundial y la vinculación de Nodo50 al punto de vista sobre las
relaciones Norte-Sur defendido por la campaña.
Pero la ambivalencia de una campaña de este tipo en lo que a los procesos de autoorganización se
refiere dejó a Nodo50 en la ambigua situación de ser un recurso utilizado colectivamente en
especial por ONGs, que sí apostaron abiertamente por la comunicación telemática, pero bajo una
gestión tutelada que lo despotenciaba como proyecto autónomo.
La conexión de Nodo50 a Internet
A mediados de los noventa, el acceso permanente a Internet estaba prácticamente limitado a las
instituciones académicas.
Para la minoría de gente que utilizábamos la telemática, lo habitual era conectar con más o menos
frecuencia con alguna BBS para intercambiar correo, leer noticias o descargar ficheros. La conexión
requería disponer de un módem y marcar el número de teléfono de la BBS de destino. Todavía
recuerdo cómo para conectar con la ECN italiana, red de BBSs dedicadas a la telemática
antagonista, establecía conexión con alguno de sus nodos mediante una llamada telefónica
¡internacional!, sin que por aquel entonces pudiera imaginar otra manera de hacerlo. En el entorno
de las BBSs el problema de la conectividad no existía como tal, pero la cosa cambió con el
advenimiento de Internet.
La conexión de Nodo50 con Internet tuvo lugar durante el verano de 1996, poco después de la
implantación de Infovía por parte de Telefónica. Para esa época, el propio desarrollo del capital
empezó a asumir las telecomunicaciones como un mercado que en su segmento central quedaría
controlado por el monopolio Telefónica, mientras que se abriría un espacio en sus segmentos
marginales para el boom de pequeñas empresas, que venderían conexiones a Internet. Telefónica
desarrolló la tecnología Infovía para resolver dos problemas que limitaban el crecimiento del
mercado: por una parte permitiría la conexión a Internet mediante llamada telefónica local a través
de un número único (el memorable 055); por otra parte permitiría a las empresas vendedoras de
conexión (llamadas "proveedores de acceso") la posibilidad de múltiples conexiones a través de un
solo hilo. Infovía se imponía como una tecnología intermediaria entre el cliente que compraba
conexión a Internet y la empresa que se la vendía: en términos más técnicos, una pasarela. Así pues,
Telefónica controlaba los dos extremos del negocio, pero facilitaba enormemente el desarrollo y la
gestión de un servidor de conexión y con ello posibilitaba el boom de los proveedores de acceso a
Internet (figura casi desconocida en el resto del mundo), que a partir de entonces asumirían el
desarrollo del mercado minorista de las telecomunicaciones y todo lo que ello conlleva,
especialmente las tareas de extender el mercado hasta masificarlo y, sobre todo, de asistir a una
clientela poco adiestrada en las prácticas telemáticas.
El asunto de la conectividad
Cuando, en el verano de 1996, Nodo50 dejó de ser una BBS para ser un servidor en Internet, debió
plantearse el problema de si, además de los servicios propios de Internet (correo electrónico, web,
etc.) debía también constituirse en proveedor de acceso.
En la manera como percibimos Internet en el Estado español parece obvio que ofrecer servicios y
proveer de acceso son una misma cosa. Sin embargo, ya para entonces había otras experiencias que,
en el ámbito de la telemática antagonista, habían optado por separar ambas ofertas. Tal es el caso de
la ECN italiana, cuyos nodos dejaron de ser BBSs para convertirse en proveedores de servicios
(correo electrónico, web, etc.) que no proveen de acceso a Internet, acceso que quienes frecuentan
la ECN deben conseguir por otros medios (la empresa, la universidad, los servidores
comerciales...).
Es sabido que Nodo50-SODePAZ conocía de primera mano la experiencia de la ECN italiana, a
pesar de lo cual optó por ofrecer la conexión como uno de sus productos y quizás como el mejor de
ellos pues el sistema bajo el que se ha desarrollado Internet nos ha acostumbrado a pagar la
conexión mientras que los servicios propios de la red (correo electrónico, web, etc.) los
consideramos gratuitos.
A partir del momento en que Nodo50, en lo referente a conectividad, empezó a ofertar lo que otras
empresas estaban comercializando, entrando de esa manera en un mercado en el que de algún modo
debía competir, se produjo la insólita situación de que un proyecto militante ofrecía exactamente lo
mismo que otras empresas estaban vendiendo y que, por tanto, se podía adquirir en el mercado
mediante una relación estrictamente mercantil (repito: en lo referente a la conectividad).
El motivo por el cual Nodo50 valoró la necesidad de ofrecerse como proveedor de acceso para sus
usuarios/as se presta a interpretaciones. Es posible que Nodo50-SODePAZ estuviera influido por el
punto de vista sobre los desequilibrios entre Norte-Surdesarrollado por la campaña "50 Años
Bastan", así como por muchas otras ONGs usuarias de Nodo50. Desde ese punto de vista, las
estrategias de las multinacionales que controlan el mercado de la telefonía chocan con las
necesidades del Sur y con las economías más pobres de los países no industrializados. El simple
acceso a una línea telefónica está negado para la gran mayoría de la población, y por parte de las
ONGs para el Desarrollo se considera de gran valor estratégico que los desequilibrios entre Norte y
Sur disminuyan lo más posible en lo que respecta a conectividad y telecomunicaciones.
Es cierto que sin conexión no hay Internet, y que la accesibilidad y el precio de la conexión están
controlados por las multinacionales telefónicas en situaciones en las que, por ejemplo, una llamada
telefónica por parte de un campesino puede suponer su capacidad para negociar la venta de su
cosecha con unos precios u otros (pensemos, otro ejemplo, lo que puede suponer la conectividad a
Internet en los campamentos saharauis). Pero mientras en el Sur se imponen políticas que restringen
el acceso masivo a la información y a la comunicación y, por extensión, a Internet, en el Norte es el
propio desarrollo del capital el que está interesado en que todo el mundo tenga conectividad: la
conectividad universal.
Parece que, mientras la ECN asumió un punto de vista de país industrializado, dejando que el
propio mercado asumiera el marrón de la conexión, Nodo50-SODePAZ asumió un punto de vista
más cercano al Sur, volcando todos sus esfuerzos, especialmente hasta otoño de 1998, en la
conectividad.
La conectividad gratuita
En el momento de redactar estas líneas (verano de 1999), una vez liberalizado el mercado de las
comunicaciones, las operadoras telefónicas han establecido una batalla por el mercado de las
llamadas locales consistente en ofrecer conectividad gratuita a Internet (a cambio, claro está, de
obtener buenos beneficios por la facturación de las llamadas). Ante la paradójica situación de que el
propio mercado ofrezca gratis lo que desde hace años un proyecto militante ha intentado potenciar:
la conectividad para todo el mundo, la reacción de Nodo50 se mueve entre la perplejidad ante el
hecho de que sea el propio mercado el que haga realidad nuestros proyectos, y el patetismo al
constatar que aquello en lo que ha volcado tanto esfuerzo queda desvalorizado precisamente al
hacerse universal.
Quizás por eso, lejos de celebrar la conectividad universal como un derecho de ciudadanía, asume
el punto de vista del pequeño comerciante que ve tambalearse su cuota de mercado, cosa que resulta
inexplicable si tenemos en cuenta que Nodo50 es un proyecto militante y que, por ser otra cosa, está
a salvo de los procesos dumping que desencadenan estas ofertas de gratuidad. ¿Quién, si no son los
servidores como Nodo50, pueden invitar a sus usuarios/as a utilizar masivamente las conexiones
gratuitas y llevar hasta el final esta maniobra del mercado exigiendo que la publicidad se haga
efectiva y que todo el mundo dispongamos de conexiones gratuitas y de calidad ¡ya!?
Por el contrario, lo que ha hecho Nodo50 ha sido alertar a sus usuarios/as de los posibles engaños
que se esconden tras estas ofertas[1]: concentración del mercado en reducidos y poderosos núcleos
del poder ----económico (como si esa concentración dependiera de que paguemos o no la conexión)
y falta de calidad en esas conexiones (insinuando que quien pague podrá contratar una conexión de
calidad y quien no pague no).
Pero quizás lo más significativo sea el llamamiento a "dar una batalla en la concentración a través
de poderosos y sugerentes portales que aglutinen recursos políticos alternativos", poniendo así en
circulación un discurso sobre la unidad basado en el miedo y absolutamente contrario a lo que más
nos gusta de Internet: que es un espacio para la distribución descentralizada, la copia y la
proliferación, y no para la centralización ni la aglutinación de poderosos recursos, por más
alternativos que éstos sean.
Continua --»
Notas
[1] El 15 de junio de 1999 Nodo50 envió a sus usuarios/as un correo electrónico que, con el asunto
"URGENTE: Aviso a navegantes...", valora la situación creada por la gratuidad en las conexiones.
No he encontrado el texto de ese correo en la web de Nodo50.
[subir al texto]
Por qué Nodo50 ha dejado de interesarme
by Marga
Por cada mil palabras enviadas desde el norte…
La gestación de Nodo50 (1993/94) coincidió con el desarrollo de otros proyectos similares, todos
ellos con el mismo referente: la cooperación Norte-Sur. IEPALA en Madrid (comprometida con la
Red del Tercer Mundo) Pangea en Barcelona (respaldada por la federación de entidades
Comunicació per la Cooperació), Altercom en Bilbao, Eusnet en Iruña... iniciativas todas ellas bajo
las que latía la conocida consigna "Por cada mil palabras enviadas desde el Norte, el Sur sólo
devuelve diez". Considerando que la comunicación es poder y que las posibilidades de comunicar
están desigualmente distribuidas, la propuesta de estos proyectos era militar en pro de la
conectividad fácil y barata para garantizar la diversidad y la libertad de expresión, especialmente
allí donde los gobiernos, a través del gran capital, imponen políticas represivas contra el uso libre de
la información.
Debemos reconocer a las militancias (o burocracias) de las ONGs el valor de haber apostado desde
el primer momento por un uso intensivo, agrupado y eficaz de las nuevas tecnologías
comunicativas, en tiempos en los que los colectivos dedicados a la acción política, incluso los que
priorizaban la contrainformación, carecían de iniciativas orientadas a construir una infraestructura
de comunicaciones autónoma.
Para comprender este fenómeno, por otra parte inexplicable, quizás deberíamos rememorar el
paisaje político y social que una transición política desde la dictadura hasta la democracia (reforma
sin ruptura) y diez años de gobierno socialista y de entrega masiva de la militancia a los brazos de la
política institucional habían dibujado.
Para 1992 (año en el que el número de voluntarios olímpicos en Barcelona superó con creces el
número de militantes de todas las causas juntas) ya casi nadie creía en la posibilidad de una
transformación social inminente y colectiva y, siendo que los grandes relatos habían caído (quizás
nuestro último pequeño "gran" relato fue, en 1986, el referéndum contra la OTAN), se abría la
disyuntiva de, o bien profundizar un nihilismo activo (eso que mis amigos llaman resistirse al poder
sin esperar nada) o bien reconstruir pequeños relatos dadores de sentido (lo pequeño es bello).
Una gran parte de la militancia de los comités de apoyo a las revoluciones del Sur se habían
volcado, como mal menor, en la construcción de ONGs para la cooperación. Otra parte de la
militancia izquierdista se había refugiado en el relato de la alienación (la democracia ha engañado a
todo el mundo, menos a mí y a mi pequeño grupo), con el corolario de que las nuevas tecnologías
alimentan esta alienación. Los colectivos (muchos de ellos individuales) que experimentaban en las
nuevas formas de hacer política empleaban todas sus energías en llevar la política a lo cotidiano (lo
cotidiano corpóreo y presencial), multiplicando las microprácticas de liberación que proliferaban en
un espacio metropolitano difuso. ¿Quién estaba en condiciones de plantearse un desembarco en el
ciberespacio? Es posible que las ONGs, al haber negociado con la realidad en términos más
posibilistas, estuvieran menos problematizadas que otro tipo de colectivos más radicales en cuanto a
la utilización de las nuevas tecnologías comunicativas, al tiempo que estaban también menos
predispuestas a emparentar en modo no instrumental con esas tecnologías.
La constitución de IPANEX
En octubre de 1994, GreenNet convocó a los diferentes proyectos de telemática alternativa en el
Estado español a una reunión (a la que también asisitió alguien de la ECN, concretamente de Radio
Sherwood) con la propuesta de que éstos se federaran en una estructura cooperativa. GreenNet era
(y es) un servidor telemático sin ánimo de lucro dedicado al pacifismo, derechos humanos, medio
ambiente, etc. responsable de coordinar los nodos de la APC en Europa. A su vez,
la APC (Association for Progressive Communications), constituida en el verano de 1990 por siete
redes alternativas (NordNet en Suecia, Web en Canadá, AlterNex en Brasil, Nicarao en Nicaragua,
Pegasus en Australia, IGC en EEUU y GreenNet en Inglaterra) y que para 1994 contaba con
bastantes miembros más, era sin duda el punto de referencia para los proyectos de telemática
solidaria y/o alternativa en España, como lo avala el hecho de que Nodo50, entre otros, acudiera a
GreenNet desde el primer momento a fin de recabar apoyo técnico y político para su puesta en
marcha.
La propuesta organizativa de la APC consistía en aceptar un solo nodo miembro por Estado, así que
las distintas iniciativas del Estado español recogieron el envite de GreenNet y acordaron federarse
en IPANEX (acrónimo de Iepala, Pangea, Altercom, Nodo50, Eusnet, y Xarxaneta), cuyo proceso
de constitución y federación en la APC concluyó a mediados de 1997, habiéndose retirado del
proyecto Eurosur-Iepala y Altercom.
Cabe destacar que en pleno proceso de constitución de IPANEX se produjo la contratación por parte
de estos nodos del servicio de Infovía, contratación cuyos costes superaban ampliamente la
financiación de una BBS, y que suscitó la preocupación por la viabilidad económica e introdujo la
discusión sobre la idoneidad de mantener un único nodo físico en el Estado español, (una sola
máquina) que albergara a los distintos proyectos como nodos virtuales. La heterogeneidad de
planteamientos se manifestó en el hecho de que de los cuatro nodos que hoy por hoy forman
IPANEX, cada uno de ellos represente un modelo organizativo y de financiación distinto: Pangea
cuenta con el soporte de la Universistat Politècnica de Catalunya y su relación con las instituciones
es abierta; Eusnet ha creado la empresa cooperativa Izartel que presta (y factura) servicios externos
y que, a su vez, se encarga del servicio técnico de Eusnet; Xarxaneta, por carecer de mayores
posibilidades, se aloja físicamente en la máquina de Eusnet a cambio de un alquiler; y Nodo50 ha
quedado en ser uno de los proyectos de SODePAZ, bajo cuya tutela se mantiene.
La cooperación entre los nodos de IPANEX se reduce a un pacto de no agresión "firmado" tras
llegar a unos acuerdos territoriales que reparten el Estado español en zonas de hegemonía para cada
uno de sus nodos. Mediante esos acuerdos territoriales cada nodo se compromete a no publicitarse
fuera de su zona, a comunicar a los colectivos que soliciten un alta desde fuera de su zona la
existencia del nodo preferencial para esa zona, y a comunicar al nodo "propietario" de una zona
todas las altas de colectivos que otro nodo realice en una zona que no sea la suya. Esos acuerdos de
territorialidad, aunque cumplidos a trancas y barrancas y continua fuente de conflictos en IPANEX,
dan idea de cómo se sobreponen prácticas absolutamente contrarias a la manera de ser de Internet,
un espacio en el que las fronteras territoriales sencillamente han sido sobrepasadas.
Los aberrantes acuerdos de territorialidad de IPANEX, incluso si se incumplen, son significativos
por varias cuestiones: manifiestan cómo la cooperación no pasa de ser una necesidad burocrática
impuesta por la APC; muestran también cómo la preocupación por la financiación se resuelve en
términos de cuotas de mercado; y por último desvelan la percepción que estos proyectos tienen de
Internet propiciando un uso meramente instrumental y competitivo que no comprende qué cosa es el
ciberespacio y que, por tanto, no lo ve como una expresión de la inteligencia colectiva ni se sitúa
dentro de los procesos de construcción de las comunidades virtuales en su especificidad.
La federación en la APC
Para valorar el fenómeno IPANEX merece la pena detenerse un momento a pormenorizar lo que la
pertenencia a una red tal como la APC supone. Antes de Internet, las BBSs permanecían aisladas
unas de otras la mayor parte del tiempo, y unas pocas horas al día se conectaban entre sí mediante
llamadas de teléfono casi siempre interprovinciales y a veces internacionales a fin de intercambiar
correo, noticias o ficheros. La decisión de conectarse entre sí respondía al criterio del SysOp, que
habilitaba las acciones necesarias para que periódicamente se produjese la interconexión. Algunas
BBSs decidían permanecer aisladas, mientras que otras se conectaban entre sí formando redes
(redes débilmente conectadas, pero redes al fin). Está claro que con una conectividad de este tipo el
intercambio, por ejemplo de correo electrónico, entre usuarios/as de dos BBSs distintas sólo podía
producirse si los SysOps habían decidido interconectarlas.
Con Internet este panorama cambia radicalmente. La conexión entre nodos de Internet es total, las
veinticuatro horas del día y de todos con todos. Cuando un nodo se conecta a Internet se conecta a
todo el resto de nodos por igual. ¿Qué sentido tiene, entonces, decir que la APC (o la ECN, u otras
muchas) es una red en Internet? El sentido es estrictamente político. Cuando hablamos de redes en
Internet, sea APC o cualquiera otra, estamos hablando de gente que explícitamente se plantea
cooperar, trabajar en red, compartir recursos, crear un espacio común, apoyarse mútuamente en
casos de represión o de ataques, etc. sin que esta cooperación tenga apenas requerimientos técnicos.
Dicho en otras palabras, la pertenencia a una red en Internet es, ante todo, una decisión política (o
burocrática) que puede cambiar de un día para otro sin que este cambio tenga apenas repercusiones
técnicas (en el caso de la APC la pertenencia da derecho a participar en numerosos grupos de
noticias por lo general bastante poco dinámicos, derecho que no se extiende al resto de gente). No
hay la menor duda, por tanto, de que Nodo50 así como los otros miembros de IPANEX comparten
los puntos de vista y las prácticas de la APC, ya que de otro modo su pertenencia a esta red no
tendría explicación alguna.
Continua --»
Por qué Nodo50 ha dejado de interesarme
by Marga
Un servidor sobre Windows-NT
Según se narra en "La inconfesable historia del Nodo50", firmada por la Asamblea de Nodo50 y
publicada en la revista De Sur a Sur (núm. 14, marzo de 1998), en noviembre de 1996 Nodo50
"monta un servidor sobre Windows NT con accesos Internet e Infovía".
Por esas fechas, en plena constitución de IPANEX, Nodo50 debía conocer que Pangea, en un
entorno académico, había optado por desarrollarse sobre GNU/Linux (por no hablar de la ECN, que
desde el primer momento apostó por software libre) mientas Eusnet, en un entorno empresarial,
optaba abiertamente por Windows NT (tan abiertamente que no ha tenido ningún reparo en incluir
el logotipo de Microsoft, enlace incluido, en su página principal). Supongo que Nodo50 decidió
utilizar software propietario de Microsoft en lugar de software libre GNU/Linux por motivos de
facilidad de uso aunque la explicación dada en su momento, fue de corte autojustificativo y
populista e hizo de la necesidad virtud al decir que no se usaba GNU/Linux no porque no se supiera
usar sino por ser un sistema operativo elitista, propio de hackers y alejado del usuario medio. Algo
de mala conciencia debía rondar bajo esta decisión pues, de otro modo, el logotipo de Microsoft
habría aparecido también en la página principal de Nodo50.
El proyecto GNU (GNU's Not Unix) nació hacia 1983 de la mano de Richard M. Stallman y la Free
Software Foundation. Pretendía recuperar el espíritu de cooperación propio de la contracultura
hacker de los años setenta y que había sido literalmente barrido con la irrupción de las grandes
corporaciones (IBM, Hewlett Packard...) en el mercado de la informática personal. Promotores de
un uso político de la informática personal, una especie de computopía, y resistiéndose al devastador
empuje de transnacionales como Apple o Microsoft, algunos supervivientes de la contracultura
hacker emprendieron el proyecto GNU[2].
GNU aboga por la libertad para utilizar, replicar, o modificar el software; reclama el derecho a
copiar y distribuir programas informáticos sin límite alguno y a resistirse a las patentes y a todas las
formas de software propietario. A fin de ejercer esta libertad, GNU ha registrado la licencia GPL,
bajo la cual miles de desarrolladores de software de todo el mundo registran los programas que
producen, haciendo públicos sus códigos fuente y permitiendo la libre utilización, modificación y
copia de esos programas (eludo el uso del femenino por la escasa visibilidad de las programadoras
en éste como en otros proyectos, sea porque no las hay, sea porque expresamente evitan el espacio
público y prefieren desarrollar su trabajo en un entorno más íntimo).
La Free Software Foundation no se limita a hacer propaganda explicando por qué el software no
debería tener propietarios[3]: se trata de un potente y muy dinámico proyecto emprendedor bajo
cuya coordinación se ha desarrollado el sistema operativo GNU/Linux así como infinidad de
programas de aplicación y por supuesto, por motivos que nos llevarían a la historia de Internet, toda
la tecnología necesaria para prestar servicios en la red, tecnología que es utilizada por
aproximadamente la mitad de los servidores de todo el mundo (Linux 34%, Micro$oft 25%,
FreeBSD 15%: o sea, Linux + BSD y otros Un*x libres es más del 50%).
La crítica al software propietario
A menudo la crítica práctica al software propietario se limita a lo que sus propietarios llaman
pirateo y que más bien deberíamos llamar ayuda mutua. Si yo tengo un programa y tú lo necesitas,
¿por qué motivo debería no prestártelo? Sin embargo, y a pesar de los llantos de los gigantes de la
informática personal por las enormes pérdidas que las copias ilegales de software les ocasionan, lo
que está en juego con la implantación del software propietario no es la simple venta de algunos
programas más, sino el control total sobre toda forma de transmisión y de tratamiento de la
información[4].
En la elección entre un sistema de tratamiento de la información propietario, que se cuelga cada dos
por tres, que cambia constantemente de versión sin razón alguna, que obliga a desmesurados
recursos en hardware, y cuyo código fuente no es accesible, y otro libre, abierto y estable, que ha
sido probado ampliamente por gente que, al utilizarlo, toma parte activa en su desarrollo y que
puede ser estudiado y reutilizado para otros usos, el hecho de que este segundo sea gratuito no es lo
más importante.
Ignoro, y me gustaría dedicar tiempo a reflexionarlo, qué es lo que impele a gente que podría estar
contratada en inmejorables condiciones en alguna gran empresa de software, a hacer público su
trabajo en libre cooperación con otros, pero no puedo dejar de emocionarme cuando leo a Richard
Stallman, persona de la que no sé nada salvo que es un notable programador y un reconocido
hacker, diciendo: "El movimiento del software libre es aún reducido y joven. Como usuario actual
de computadoras, puede que estés utilizando un programa propietario. Si tu amigo te pidiese una
copia, estaría mal que te negases a hacérsela. La cooperación es más importante que el copyright.
Pero la cooperación clandestina, encubierta, no contribuye a formar una buena sociedad. Cualquier
persona debería aspirar a vivir abiertamente, erguido, con orgullo, y eso significa decir 'No' al
software propietario.
Mereces poder cooperar abierta y libremente con otras personas que utilizan software. Mereces
poder aprender cómo funciona el software. Te mereces el software libre."
Es cierto que la utilización de GNU/Linux presenta un aspecto más dificultoso que el engañoso
sistema de ventanas con pantallazo azul. Esta dificultad, que disminuye lentamente, es el precio que
hay que pagar por participar en un proyecto de desarrollo de software non-profit sin fines
mercantiles, una especie de comercio justo (producción free, de uso público) aplicado a un
producto, el software, producido y consumido en el Norte. Ese comercio justo tiene también su
consumo responsable: gente que utiliza, divulga y difunde GNU/Linux, y ayuda a otra gente a
resistirse a la privatización del software pues, como en otros tantos proyectos emprendidos
(seguramente los que más nos gustan), ¿a quién le importa lo fácil?
El proyecto EPITELIO y GNU/Linux
EPITELIO Network fue un proyecto (1996-1998) financiado por el Programa de Aplicaciones
Telemáticas de la Comisión Europea (European Comission DG XIII) para promocionar una red
contra la exclusión social. Como parte de esta iniciativa contra la pobreza y la marginación social,
la Comisión Europea contemplaba el desarrollo de aplicaciones telemáticas para, entre otras cosas,
facilitar el acceso de los sectores sociales marginados a la información y a los servicios orientados a
la integración social de estos grupos. De sobras sabemos lo que significan los proyectos para las
ONGs a efectos de financiación y de posibilidades de intervención, así que no es sorprendente la
participación de Nodo50 en EPITELIO Network en el desarrollo de herramientas que, vía web,
permitieran la recopilación y el acceso a recursos en el área del comercio justo/consumo
responsable.
Lo que es más sorprendente es que la necesidad de desarrollar estas herramientas obligase a
Nodo50 a recurrir a GNU/Linux, pues, por ser GNU/Linux un conjunto de recursos públicos, la
información sobre otras herramientas similares ya desarrolladas, así como la disponibilidad,
accesibilidad y posibilidades de reutilización de éstas lo convertía en un sistema idóneo para la
implementación de otras nuevas (lo fácil se volvió difícil, y viceversa).
Debemos agradecer al área de aplicaciones informáticas del proyecto comunitario EPITELIO
Network la instalación de una máquina linux en Nodo50, máquina que se ha dedicado
exclusivamente a mantener las herramientas desarrolladas para ese proyecto hasta que, en el
momento de escribir estas líneas (verano de 1999), la fuerza de la realidad ha hecho patente que la
fiabilidad, estabilidad y adaptabilidad de GNU/Linux supera en mucho a la de Windows NT, por lo
que Nodo50 con muchos titubeos y un poco a regañadientes ha decidido la migración paulatina
hacia este sistema.
Continua --»
Notas
[2] Hay breve explicación del proyecto GNU en http://www.nodo50.org/laboratorio/atl/gnu.htm
[subir al texto]
[3] Por qué el Software no debería tener propietarios es un alegato a favor del free software que
puede encontrarse enhttp://www.nodo50.org/laboratorio/documentos/atl/stallman1.htm
[subir al texto]
[4] Trampa en el ciberespacio explica cuáles son los intereses reales que, más allá de un simple
incremento de las ventas, se mueven tras el software propietario. Puede encontrarse
en http://usuarios.iponet.es/casinada/31trampa.htm
[subir al texto]
Por qué Nodo50 ha dejado de interesarme
by Marga
El proyecto político Nodo50
En esta modesta genealogía he intentado destacar cuáles han sido, a mi juicio, los hitos más
significativos en el devenir de Nodo50 hasta convertirlo en un espacio imposible para el desarrollo
de nuevos proyectos del tipo SinDominio (que no, por supuesto, para otro tipo de proyectos). ¿Qué
pasa en Nodo50?
Desde mi punto de vista, el bloqueo que actualmente amenaza a Nodo50 obedece a una especie de
punto fijo, un invariante que al mismo tiempo que ha servido para desarrollar e impulsar
enormemente el proyecto, lo ha limitado y despotenciado: a ese invariante lo voy a llamar una
relación instrumental con el ciberespacio[5]. Dicho en otras palabras, una cosa es que nos parezca
interesante utilizar Internet como una herramienta para el desarrollo de las comunicaciones,
comunicaciones que podrían producirse de otra manera pero que entonces serían más lentas, más
caras, más vulnerables o más ineficientes y otra cosa muy distinta es que nos parezca interesante
construir Internet. En la propia propaganda escrita de Nodo50 leemos: "Este proyecto trata de ser
una herramienta de trabajo para mejorar las comunicaciones de todas las organizaciones e
individu@s progresistas que quieran obtener una información alternativa".
Por haber participado y trabajado en Nodo50, y de alguna manera haber contribuido a desarrollar
esa herramienta de trabajo, he tenido ocasión de conocer de cerca diversas maneras de entender el
ciberespacio. La diferencia entre una relación instrumental y una relación constructiva no es un
simple matiz para rizar el rizo. Se trata de un aspecto crucial en lo que respecta a la manera de
acercarse a los retos tecnológicos, económicos y organizativos que el proyecto plantea pues, si
Internet es una herramienta, entonces abordamos esos retos con criterios de facilidad, baratura y/o
eficiencia, mientras que si lo que queremos es construir Internet, entonces debemos dotarnos de
criterios de valor internos a eso que estamos construyendo, criterios inmanentes, específicos del
medio y que, tal vez, pongan en cuestión otros valores más tradicionales.
La estructura social y los modelos comunicacionales
En el artículo "Debate político sobre la comunicación", publicado por SODePAZ en el núm. 14
(marzo de 1998) en la revista De Sur a Sur (revista andaluza de solidaridad, paz y cooperación)
escrito por Armand Mattelart/Jean Marie Piemme, podemos leer: "Los modelos comunicacionales
no explican la sociedad, sino que es la estructura social la que explica los modelos
comunicacionales. Así pues, la dificultad de hallar una comunicación alternativa es correlativa a la
dificultad experimentada por las grandes fuerzas históricas en lucha contra el capitalismo para
producir nuevas formas de relación en el seno de sus organizaciones y en general en el seno de la
sociedad global".
Pues bien, esta correlación entre el espacio virtual y el espacio material (no quiero llamarlo real
pues lo virtual también es muy real) es lo que está en discusión ya que, si bien es cierto que a través
de esta correlación entre estructura social y modelos comunicacionales se introduce en éstos el
antagonismo (negatividad, resistencia, lucha de clases o como queramos llamarlo) que los aleja de
la relatividad postmoderna, también es cierto que esta correlación niega cualquier posibilidad de
autonomía para esos espacios comunicativos y, al negar la posibilidad de autonomía, no entiende el
deseo de construirla.
La pregunta sobre si el ciberespacio permite una experiencia específica de autonomía sólo puede ser
una pregunta activa hecha desde dentro de esa experimentación pues, de otro modo, adoptaría la
mirada quirúrgica de sociólogos, antropólogos, psicólogos o demás bomberos de lo social.
Entre usar Internet y hacer Internet hay una distancia (distancia que se abre cada vez que alguien
piensa "qué puedo sacar de la red"? en lugar de "qué puedo aportar?"), al tiempo que hay una
proximidad. Aunque son cosas diferentes, también son indisociables. Precisamente el uso masivo de
Internet se hace funcional (al sistema), entre otras cosas, porque exige una cierta participación
activa al tiempo que, paradójicamente, impone el justo grado de pasividad (tal y como requiere la
construcción del consenso en las sociedades de control). No creo posible un uso de internet que no
contribuya a su construcción. Pero puede haber, efectivamente, un uso pasivo y acrítico con lo que
participar en esta construcción significa.
Por supuesto hay que reconocer a quienes desde el primer momento apostaron por utilizar esta
infraestructura el mérito de haberla extendido y robustecido. Lo triste es que Nodo50 no haya
podido aunar bajo un mismo proyecto maneras de usar Internet con maneras de construirla. De otro
modo, ante la propuesta de SinDominio, la pregunta (totalitaria) por el sentido de SinDominio no se
hubiera planteado, pues no tiene sentido desde dentro de Internet preguntarse por el sentido de un
nuevo recurso, tal y cómo haríamos en el espacio material ante el proyecto de construcción de un
nuevo pantano, autopista o vía férrea de alta velocidad por parte del Estado.
Lo específico del ciberespacio
Mucha gente se mueve en el ciberespacio para hacer cosas que sólo se pueden hacer ahí. Uno de los
movimientos sociales que ha instaurado una especificidad en el ciberespacio es el movimiento por
el software libre, con toda la discusión que introduce sobre la ilegitimidad de la propiedad sobre la
producción inmaterial y, en consecuencia, la legitimidad de copiar lo que, por más que sus
propietarios llamen originales, no son más que copias de copias. Otra gente, inventora-constructora
de los ciberderechos, hace efectivo el ciberderecho a la privacidad en las comunicaciones
desarrollando y haciendo públicos algoritmos de encriptación en una batalla contra el control social
que puede suponer penas de cárcel bajo la jurisdicción militar de sus respectivos Estados[6]. Junto a
estos movimientos sociales se desarrollan otras prácticas igualmente audaces y rompedoras, tales
como la pornografía no sexista promovida, entre otras, por Helena Velena[7], o todas las formas de
cibertravestismo junto a un sinfín de prácticas de cooperación social que no se ajustan a las formas
clásicas de hacer política.
Así, esta primavera, en el italiano Hackit99 pudo discutirse una valoración ética sobre la legitimidad
de atacar máquinas con medios maquínicos y/o humanos, en un debate que no podría producirse en
los mismos términos si de la producción de daños materiales se tratara. En el sugerente relato de
Julian Dibell "Una violación en el ciberespacio"[8], publicado en el núm. 27-28 de la revista El
Paseante dedicado a la revolución digital y sus dilemas[9], una violación perpetrada en uno de los
mundos digitales semificticios conocidos como dimensiones multi-usuario o MUD (al fin y al cabo
una base de datos), abre una reflexión sobre las diferencias socialmente significativas entre los
cuerpos online y los cuerpos físicos y, llevando al extremo la extraña idea de la violencia sexual
inmaterial, interpela nuestras ontologías, epistemologías y éticas sexuales tardomodernas. Y esto
son sólo muestras, indicios de lo que acontece en la red.
Al borde de un futuro en el que los entornos digitales quizás lleguen a ceñir ¿o expandir? la vida
tanto como hoy lo hace la arquitectura (por tomar un ejemplo material) o el dinero (otro ejemplo de
mayor abstracción), no vale decir que el ciberespacio es sólo una herramienta para la comunicación,
igual que no vale decir que la arquitectura es sólo una herramienta para el uso ordenado del espacio
o el dinero es sólo una herramienta para la satisfacción de las necesidades.
El hecho de que a menudo operemos como máquinas-herramienta encarnadas que expresan,
comunican y producen junto y en conexión con otras (en red) plantea nuevas ambiguedades, otras
formas de placer y también de poder, otros lenguajes, otros sufrimientos. La posibilidad de construir
sociedades online más libres que aquellas que están trazadas sobre la mierda, el cemento y el capital
parece que es un hecho (al menos en éste nuestro primer mundo). Puede ser que esas sociedades
online nos hagan más fuertes y desde ellas ataquemos con más contundencia la mierda, el cemento
o el capital. También puede ser que la belleza de la luna digital reblandezca nuestros sesos, y su
promesa de una felicidad postmoderna recubra y desdibuje esa mierda, ese cemento o ese capital.
Pero lo que no puede ser es que la razón instrumental se imponga y que todas esas posibilidades nos
sean ajenas y dejen de apasionarnos.
Las consecuencias de un modelo
En el ejemplo que me ha sugerido la conversación con una amiga, "pongamos el caso de alguien
que participa en una lista de correo de la ECN. Por un lado tiene una relación instrumental con
Internet porque usa la red para comunicarse. Por otro, su forma de comunicar es absolutamente
distinta, se da con otro ritmo, otro espacio y otro tiempo a como podría darse de no existir Internet.
Construye una práctica de asamblea permanente que atraviesa territorios geográficos y participa en
la construcción de una comunidad. Interviene así en el panorama de los centros sociales italianos,
pero también en la configuración de un uso de Internet, de un@s usuari@s determinad@s,
contribuye a la constitución de redes que viven en Internet, con sus formas de vida, sus lenguajes,
sus debates, y por tanto, participa, en cierto grado, en su construcción."
Las nuevas tecnologías permiten nuevas prácticas, pero el simple contacto con las nuevas
tecnologías no es suficiente para modificar prácticas profundamente arraigadas en las viejas formas
de hacer política.
El proyecto Nodo50 parece responder a la idea de que ciertos contenidos "de izquierdas" deben
circular por Internet y, para que sean visibles, se les debe ofrecer un soporte técnico. Este punto de
vista ignora que ese soporte es en sí mismo un contenido y que, en su construcción, cada decisión,
cada elección, es una acción política, política en términos de relaciones de poder y de construcción
de lo real, de lo posible y de lo que no lo es y, por tanto, cargada de contenidos, contenidos
producidos por interactuaciones en el espacio material, pero también sobre la superficie del
ciberespacio.
Las consecuencias de este punto de vista son evidentes: uso instrumental del software, relación
clientelar con las/os usuarias/os, refuerzo de la cultura utilitaria y no cooperativa, ausencia del
trabajo en red, estancamiento de la circulación de saberes y conocimientos, relaciones competitivas
con otros proyectos (incluso dentro de IPANEX), construcción de la unidad de la izquierda como un
bloque cuya hegemonía se pone en peligro por la proliferación... en definitiva, el bloqueo de un
proyecto que no puede deshacerse de su estructura grupuscular-tutelada para hacerse en
cooperación con otros.
Para terminar
Cuando me decidí a trabajar para Nodo50 quería, además de ganar algo de dinero, experimentar
sobre la posibilidad de contribuir a la construcción de un centro social okupado poniendo la mirada
(la energía, el entusiasmo, la concentración, el tiempo...) en un proyecto autónomo respecto del
centro social. Los ritmos y exigencias de Nodo50, tan distintos de esa especie de agujero negro
depredador de energía en el que a veces se convierten los espacios okupados, suponían un
apasionante reto al que había que añadir la dificultad que para una mujer supone asumir tareas
técnicas relacionadas con las nuevas tecnologías, dificultad que se manifiesta en la escasez de
mujeres en entornos telemáticos (y que me pregunto si tal vez obedecerá a la decisión explícita de
no asumir ese terreno como propio).
Este intento ha fracasado, pero no me arrepiento. En unos momentos de profundo desaliento,
cuando debo recomponer todo un mundo de relaciones dentro y fuera del espacio que contribuyo a
okupar, creo que, si hubo error, éste no estuvo en la decisión de cooperar con Nodo50, sino en
esperar algo de ello.
mpadilla@sindominio.net
Notas
[5] El ciberespacio es un concepto creado por William Gibson en su extraordinaria novela de
ciencia-ficción Neuromante (1984) y que fue inmediatamente adoptado por los hackers. En un
sentido amplio, hace referencia al espacio de comunicación abierto por la interconexión mundial de
los ordenadores y de sus recursos. Esta definición (de Pierre Lévy) comprende el conjunto de
sistemas de comunicación electrónicos digitales (incluyendo el conjunto de redes hertzianas y
telefónicas clásicas). Desde este punto de vista Internet no abarca todo el ciberespacio (aunque hoy
por hoy es su expresión más extensa) sino que es el ciberespacio quien se sirve de Internet.
Hay quien dice que el ciberespacio, ese lugar tan virtual como real que requiere de un soporte
tecnológico para poder ser, se inauguró con el lenguaje. Sea como fuere, ciberespacio no se refiere
ni a Internet en particular ni a ninguna tecnología determinada y, por abstraerse de las diversas y
cambiantes tecnologías concretas sobre las que se sustenta, permite una reflexión más abstracta.
[subir al texto]
[6] Sólo a modo de ejemplo, entre otros muchos sitios podemos visitar http://www.kriptopolis.com/
[subir al texto]
[7] Helena Velena está en http://www.helenavelena.com
[subir al texto]
[8] No he encontrado traducción al castellano. El original en inglés A Rape in Cyberspace está
enhttp://www.levity.com/julian/bungle.html
[subir al texto]
[9] http://www.siruela.com/elpaseante/index.htm
[subir al texto]
ampliar la ofensiva significa radicalizar la insubordinación a cualquier jerarquía ejercer nuestra
creatividad destructiva contra la sociedad del espectáculo sabotear las mercancías que sabotean
nuestras vidas reunirse en asambleas eligiendo delegados siempre revocables por la base conectar
todos los lugares de lucha no descuidar ninguno de los medios técnicos útiles para la comunicación
liberada dar un valor de uso directo a todo lo que tiene valor de cambio organizar la Autodefensa de
los territorios conquistados...
Nanni Balestrini, Los invisibles
[Textos][Proyectos][Enlaces]
Textos del Area Telemática
Sobre el área telemática del CSOA El Laboratorio
A vueltas con la conectividad
Algunas consideraciones sobre la tarifa de acceso gratuito y el acceso público
El derecho a leer. Richard Stallman
Por qué el software no debería tener propietarios. Richard Stallman
Una entrevista con Richard Stallman
Pixels
El Proyecto GNU/LInux: El “general intellect” en red
PGP autodefensa digital
FREE KEVIN
El manifiesto hacker
Sobre el Área Telemática del CSOA el Laboratorio
Desde hace algo más de un año, el CSOA el Laboratorio cuenta con una sala de ordenadores y con
algunas personas que tratan de llevar adelante ciertas iniciativas que utilizan la informática y la
aplican a la telecomunicación antagonista. A lo largo de este tiempo el proyecto ha ido alcanzando
cierta consistencia, ha pasado por fases muy diversas y ahora vamos a tratar de hacer un breve
resumen de lo que se ha hecho y de los proyectos en los que andamos.
Lo que se ha hecho
Hasta ahora, se han ido desarrollando en paralelo dos tareas:
poner en funcionamiento y administrar para uso colectivo dos ordenadores, una impresora láser y
un escáner
iniciar proyectos telemáticos específicos, que de momento se ha concretado en la elaboración de la
página web del CSO, la implantación de un servidor linux y de varias terminales (en fase de
desarrollo) conectadas a él, el establecimiento de relaciones políticas con sujetos y colectivos
antagonistas en Internet y la formación de gente que quería aprender a usar los servicios específicos
de Internet.
Desde el primer momento dispusimos de un PC 486 –construido con piezas recicladas de
ordenadores desechados– conectado a Internet a través del proveedor antagonista Nodo50, y así
iniciamos la publicación de la página web del Laboratorio.
Compartimos el correo y alojamos (provisionalmente, pues ya disponen de su propio acceso) a la
Eskalera Karakola en nuestro sitio web y colocamos en Internet todas las actas y material escrito de
lo que dieron de sí las sesiones del II Encuentro Contra el Neoliberalismo en el Laboratorio. Como
el ordenador cada vez se usaba más, y para dar cabida a todo el trasiego que iba adquiriendo su uso
público, se compró e instaló un disco duro adicional de mayor tamaño. También se le amplió la
memoria a 24 MB y se instaló un monitor en color de 15 pulgadas, todo lo cual nos puso en
disposición de llevar a cabo cualquier proceso de maquetación, retoque gráfico y autoedición: se
han autoproducido innumerables panfletos y textos diversos, carteles, trípticos, etc. a lo largo de
este año. También se compró e instaló un tóner para una impresora láser de alta calidad, que permite
imprimir en blanco y negro a calidad de imprenta y a gran velocidad (12 páginas por minuto). Esta
impresora fue donada al Laboratorio por la Mesa de Madrid del II Encuentro que tuvo lugar el
verano pasado.
A principios de este año, a resultas de uno de los numerosos percances eléctricos, se nos quemaron
las fuentes de alimentación del PC y del flamante monitor de 15" :-((.
El proyecto LiNuX
Durante la primavera de este año, comenzamos a dar forma al proyecto linux. El sistema operativo
de libre distribución Linux tiene para nosotr@s un extraordinario interés, técnica y políticamente.
Por el lado técnico, el carácter multiusuario de Linux permite que cada usuari@ tenga su propio
acceso personalizado a las aplicaciones y a Internet, lo que, a parte de dotar de privacidad, impide
que ningún usuari@ pueda desconfigurar el sistema, introducir virus o borrar algo por error, ya que
la administración del sistema y el uso de la máquina está totalmente separado. Por otro lado, la
multitarea real de Linux nos va a permitir que varias personas desde distintas terminales puedan
conectarse simultáneamente a Internet, desatascando el uso del correo en un solo ordenador.
Políticamente Linux posee también un enorme interés. Tanto el sistema de desarrollo –non profit,
cooperativo y abierto a través de Internet– como el mundillo del free-software en que se está
desarrollando, le convierten en una línea de fuga delgeneral intellect, probablemente la única
alternativa real al aplastante peso de las multinacionales del software propietario –a la cabeza del
cual está Microsoft y su Windows, pero no sólo– en el uso de los ordenadores personales. Una gran
parte de la gente que mantiene una actitud resistente en la red y se plantea un uso no comercial del
ordenador, está implicada de un modo u otro en el desarrollo del proyecto GNU/Linux.
El proyecto de Área Telemática
1) La página web: una página web es una publicación electrónica en Internet. Es como una revista o
un fanzine que puede ser visualizado e imprimido desde cualquier ordenador del mundo que
disponga de una conexión a la red de redes, pero posee además rasgos muy particulares que la
hacen mucho más potente que cualquier publicación convencional. Una página web puede
vincularse a cualquier otra a través de hipertextos (enlaces o conexiones multimedia), se puede
modificar y actualizar constantemente y literalmente no tiene límites mediáticos: pueden colocarse
textos y fotos, como en cualquier revista, pero en estructuras no lineales, rizómaticas; se pueden
incluir también grabaciones de audio, música, secuencias de vídeo, animaciones e incluso conectar
en directo una radio libre para que pueda escucharse en ese mismo momento desde cualquier lugar
(como hace Radio Sherwood en Italia). Sus ejemplares nunca se agotan, se pueden actualizar
constantemente, no se gasta papel y su coste de producción es igual a cero por lo que se puede
distribuir gratuitamente. Permite la interacción de quien la lee, enviando cartas, comentarios,
colaboraciones en el momento... Y es, por encima de todo, una declaración de existencia que,
rompiendo las fronteras, permite dar a conocer nuestro querer vivir a aquella parte de la comunidad
virtual que a través de Internet comunica, al igual que hacemos nosotr@s, sus sueños, sus deseos y
sus proyectos subversivos/alternativos.
Tener una página web o un ordenador en un centro social no es una gran novedad. La web no es ni
siquiera el uso más interesante de Internet, todavía está dentro de un esquema más o menos pasivo
de navegación/consulta que podría llegar a parecerse en ocasiones al zapeo televisivo. Internet es un
fenómeno complejo que no se deja explicar ni capturar fácilmente, ni por quienes –quién sabe si
arrastrad@s por el culto posmoderno a las nuevas tecnologías– lo exaltan acríticamente como un
espacio liberado que el poder no puede controlar, ni por quienes –desde ideologías literalmente
arqueológicas y, por tanto, reaccionarias en sentido estricto– sólo ven alienación, amenaza y
conspiración paranoica del Gran Hermano en la red de redes en particular y en las nuevas
tecnologías en general. Si de una parte es evidente el enorme interés que el mando y los fenómenos
de globalización capitalista tienen en el paradigma comunicacional que representa Internet, por otro
–a poco que un@ se mueva sin prejuicios y de un modo (inter)activo en el ciberespacio–, también
se hacen visibles las realidades antagonistas que atraviesan el multiverso de los nuevos media.
Dicho de otro modo, Internet no sólo hace real el mercado global, la empresa difusa de la
globalización y la economía-mundo, en fin, no sólo efectúa el imaginario y pone en juego los
simulacros del dominio capitalista, sino que también es un espacio liso donde poner en red flujos de
inteligencia colectiva, donde activar intercambios, cooperación y sinergias de cultura, saber y
conocimiento.
2) OtraVista: En este último sentido –poner en red flujos de cooperación antagonista– va el
proyecto OV (OtraVista) o UCN (Universal Counter Network) que vamos a intentar desarrollar con
algun@s compañer@s de la ECN (red telemática antagonista) de Italia, Francia y EE.UU. La idea
consiste en desarrollar un buscador de recursos en la red, alternativo a los buscadores
convencionales (AltaVista, Yahoo...), que recoja y haga visible las realidades autogestionadas que
están en torno a los centros sociales y los colectivos metropolitanos y que permita hacer búsquedas
con criterios políticos y de contenido diferente a los buscadores existentes. Señalar ahora
únicamente que el proyecto es muy ambicioso tanto técnica como políticamente –los buscadores
poseen una extraordinaria importancia estrátegica en la red, ellos hacen que un determinado sitio
sea visible o invisible– y que nosotr@s acabamos de empezar a movernos en un medio en el cual
algun@s compañer@s tienen ya varios años de experiencia (como es el caso de la ECN).
3) La batalla por una comunicación "otra": deseamos entrar de lleno en el debate telemático: en el
ciberespacio se efectúan y a la vez quedan ampliamente desbordados los viejos presupuestos de la
contrainformación –interactividad, multidireccionalidad de la comunicación, horizontalidad, no
mediación...–. Reivindicar la libertad de comunicación y buscar la visibilidad significa ampliar la
perspectiva de la contrainformación clásica e irnos agenciando un acceso real a todo el sistema
massmediático: televisiones, radios, periódicos, redes... Todo esto, claro, sin trascender ni
representar, o sea, sin salirnos de la experiencia de la comunidad y de los territorios concretos en
que ésta tiene lugar, pero a la vez rompiendo las fronteras que los viejos Estados nos imponen por
todas partes y produciendo agenciamientos con gentes muy alejadas geográficamente de nosotr@s
pero que la red nos aproxima increíblemente. Nos interesa especialmente popularizar el uso de
lacriptografía –la técnica para cifrar mensajes de modo que nadie salvo a quien van dirigidos pueda
leerlos– como la llave que asegura la privacidad, el anonimato y la libertad individual en la
sociedad de la información frente a los (vanos) intentos de los Estados y las transnacionales por
controlar el flujo comunicativo (información, software...) que circula por la red. También caben
aquí los virus y todo el arsenal de software y conocimientos disponibles en la red para la
ciberguerrilla que hackers y ciberpunks llevan a cabo penetrando en sistemas de seguridad,
pinchando y alterando la conmutación telefónica (phreaking) y practicando el caos y el sabotaje
sobre los bancos de datos de gobiernos y empresas capitalistas.
Sobre los usos del Área Telemática
La idea es que las mañanas estén reservadas al desarrollo de los proyectos del área telemática: en
particular del proyecto Linux.
Por las tardes, habrá un turno de 5 a 7 en el que una persona cada día se encargará del
mantenimiento de la sala, contestará el correo, organizará e imprimirá los mails e informaciones que
llegan cada día al buzón del laboratorio, participará en los grupos de noticias sobre okupación y, en
general, mantendrá los contactos políticos y difundirá las informaciones que se generen en el
laboratorio. Por razones obvias, para instalar o desinstalar cualquier aplicación, borrar archivos o
modificar la configuración hay que hablar primero con la gente del área telemática, que no es un
colectivo cerrado sino el espacio donde nos encontramos la gente del laboratorio interesada en
organizar y llevar adelante estas cuestiones.
A partir de las siete de la tarde, habrá un uso libre de las máquinas, salvo que alguien reserve algún
uso específico, comunicándolo previamente a quien haga el turno ese día.
Julio 1998
A vueltas con la conectividad gratuita
"el movimiento del software libre es aún reducido y joven. Pero el ejemplo de las cadenas de radio
mantenidas por los oyentes de este país (EE.UU.) muestra que es posible mantener una gran
actividad sin forzar a que cada usuario pague."
Richard M. STALLMAN
La decisión de las operadoras de ofrecer conexiones gratuitas al público ha levantado un cierto
revuelo -especialmente entre quienes centraban su actividad en dar ese acceso-, con opiniones que
oscilan entre diversos grados de temor y desconfianza. Hay quien piensa que esta medida no es más
que una guerra entre lobos por disputarse el mercado a base de ofertas; otros ven una maniobra de
Timofónica por hundir a los pequeños proveedores de acceso a Internet, y algunos más lo resumen
como un zarpazo más del neoliberalismo dominante. Hasta ahora, no hemos oído voces que nos
recuerden que el "acceso para tod@s" y la conectividad gratuita es una antigua premisa hacker, un
prerrequisito sin el cual la construcción del ciberespacio pierde su dimensión social, se convierte en
algo elitista y sólo al alcance de l@s afortunad@s que disponen de conexión.
Es indudable que esta medida va a afectar negativamente a las empresas que hasta ahora se
dedicaban a cobrar por el acceso a la red de redes. Estas empresas -conocidas como CPI o
proveedores de acceso- contrataban el cable a las operadoras y luego ofrecían conectividad a los
usuarios finales. Es decir, Telefónica compartía un trozo del pastel con los CPI y a cambio les
cobraba una barbaridad por ello y les derivaba el trabajo sucio -implantación técnica de la red,
formación de un parque de usuarios, atención al cliente...-; los CPI, por su parte, cobraban por un
servicio -la conexión a la red- que en otros países o bien se ofrece gratis o bien facturan
directamente las operadoras telefónicas. Esto generó una extraordinaria proliferación de CPI -estaba
al alcance de cualquier iniciativa, empresarial o sin ánimo de lucro, contratar una frame-relay y
dedicarse a dar conectividad-, hasta el punto de que en el Estado español operan más del 10%
(alrededor de 800) del total mundial! de CPI, cuando hace sólo cinco años -antes de la aparición de
Infovía- no llegaban a diez los proveedores en todo el Estado español.
Aquell@s que desconfían del paso que han dado las operadoras telefónicas sí llevan razón al
preguntarse cómo es posible tanta generosidad precisamente en unas corporaciones cuyo rasgo
característico ha venido siendo la extorsión en régimen de monopolio, cuando no el robo puro y
duro al ciudadano de a pie (*). Es más que probable que este tipo de medidas formen parte de una
tendencia global para facilitar al máximo el acceso a la ciudadanía, ya que con ello confían en
mercantilizar definitivamente Internet. Maniobra neoliberal y capitalista, cierto, pero al precio de la
socialización gratuita del acceso al ciberespacio. No es poca cosa. Como decíamos más arriba, el
"acceso para tod@s" probablemente es el principal requisito para el crecimiento de un movimiento
social en el ciberespacio y para cualquier proceso de inteligencia colectiva.
Es obvio que el desarrollo de las telecomunicaciones está estrechamente vinculado a los intereses de
los Estados más poderosos y de las grandes corporaciones transnacionales, públicas y privadas.
Pero también es demostrable que la mayor parte de las transformaciones técnicas de estos últimos
años no ha sido decidida por esos entes. El mejor ejemplo de esto es el éxito de la World Wide Web,
cuya invención y desarrollo en los años noventa nada ha tenido que ver con los grandes actores
mediáticos (ni Micro$oft, ni IBM, ni la OTAN ni AT&T ni mucho menos Timofónica o el grupo
PRI$A han decidido nada de esto) y sí con el movimiento social del ciberespacio que lo ha
desarrollado y difundido a su bola y de acuerdo a sus necesidades y a su estilo imprevisible y
distribuido.
Como ha ocurrido otras veces, una consigna izquierdista -"acceso para tod@s"- es recuperada y
acaba convirtiéndose en piedra angular de estrategias mercantiles. Pasó antes con los ordenadores
personales que, no lo olvidemos, fueron ideados y creados por los hackers de los años setenta como
forma de arrebatar la potencia de la informática al control estatal-militar y de las
megacorporaciones privadas. En fin, este movimiento social cooperativo y generoso -las
"comunidades virtuales", el movimiento social del ciberespacio- está acostumbrado a este tipo de
maniobras, y sabe que ha puesto las bases del negocio multimediático. Pero eso no quita que, a la
inversa, y a la vez que lo recupera, el mercado acabe consolidando y haciendo irreversibles los
objetivos de las comunidades virtuales - En este caso, el del acceso gratuito para tod@s-, que hasta
ahora han sabido dar respuesta siempre a cada intento de privatizar y/o censurar la red.
Creemos que hay que dejar de una vez los clásicos lamentos "progres" (por cierto, cada vez más
conservadores) y ser rápid@s, usar y reapropiarse de esos recursos, promover que la gente abra
conexiones gratuitas y las use al máximo, que todo el mundo disponga de un buzón de correo -una
dirección de mail es lo que garantiza la visibilidad individual y la participación activa en el
ciberespacio-, que todo colectivo o centro social tenga una página web. Promover también la
conectividad desde espacios públicos autogestionados -locales de colectivos, centros sociales, casas
okupadas, "ciberkafetas" en los baretos de la peña...-, y reapropiarse también de los accesos
institucionales gratuitos -desde institutos, universidades, curros, bibliotecas, centros culturales o
cívicos, "puntos de información"...
La infraestructura física, antes como ahora, va a seguir en manos de las telefónicas. Muy
posiblemente, llevan razón quienes acusan a Telefónica de dumping y de competencia desleal, pero
no dejan de ser conceptos de quien se mueve en términos de mercado. Si alguien todavía piensa que
lo importante es quién te da el acceso a la red -pequeños CPI o grandes operadoras-, nadie le va a
impedir que alquile una línea, un router y siga dando conectividad a los usuarios. Esa es la lógica
del mercado, no tiene sentido pedirle al monstruo -Timofónica- que sea menos monstruo. Hay que
abrir líneas de fuga, tirar para otro lado.
Pensamos más bien que el problema hay que enmarcarlo en otro modelo que no sea el que manda el
mercado. Para ello son necesarias apuestas que desborden esa lógica. Mas ese cambio de
perspectiva -cambio político al fin y al cabo- no se puede improvisar de la noche a la mañana. Hay
proyectos políticos telemáticos -como bastantes de los que forman la APC-, cuya apuesta telemática
ha consistido básicamente en dar conectividad a l@s colectivos y organizacione sociales; otros, sin
embargo -la ECN sin ir más lejos-, renunciaron a la conectividad desde el primer momento y se
centraron en generar cooperación y trabajo en red. A nosotros nos gustaría seguir explorando esta
última vía: cualquiera que se mueva con criterios antagonistas por el ciberespacio sabe que lo que
hace fuerte e ingobernable a Internet es es su estructura descentralizada, horizontal y flexible: lo
contrario a la concentración o a los portales poderosos.
Nosotr@s no vamos a lamentar ni un segundo la gratuidad del acceso, todo lo contrario, y nos da
igual si es fruto de una guerra de lobos entre compañías o viene impuesto por la propia lógica del
mercado: no hay que olvidar que lo que se da gratis es el acceso pero que sigue pendiente la
reivindicación de la tarifa plana -el pago de un precio fijo y asequible, independientemente del
tiempo de conexión-, cosa que tarde o temprano llegará como ha llegado la gratuidad del acceso
pero, sobre todo, sigue pendiente la gratuidad en el uso de la línea, al menos para usos no
comerciales.
__________
Nota
(*) En efecto, Timofónica pertenece a esa leonina clase de empresas -cuyo paradigma es Micro$oftque ya están por encima del bien y del mal, o sea, fuera de las leyes del mercado y de las leyes a
secas, lo que le permite incluso obtener beneficios enormes de sus propios errores (por ejemplo, las
llamadas fallidas) y defectos funcionales (por ejemplo la exasperante lentitud de los accesos a través
de Infobirria Puzz).
Algunas consideraciones sobre la tarifa de acceso gratuito y el acceso público
Parece que ahora es el momento de plantearse el problema del acceso, la conectividad, desde una
perspectiva de lo político. Obviando que son muchas las iniciativas que han tocado de manera
directa este tema, no podemos dejar de lado que es precisamente en estos días cuando se han
producido los efectos de la liberalización del mercado de las telecomunicaciones, que tanto unos y
otros se han dedicado a pronosticar. Varias operadoras están dando en estos momentos acceso
gratuito a Internet, es de esperar que en el futuro haya mas que den sus servicios a cambio de
¿nada? No, evidentemente no es a cambio de nada, sino a cambio de TODO. Les damos una
identidad, les dejamos que ensanchen sus estadísticas, usamos sus servicios de informacion en
forma de portales, y el larguísimo etc. que se os pueda ocurrir. Esta claro que en primer lugar este
tipo de accesos va a ser de una calidad bastante mala, que donde van a poner tarifas altas para
amortizar sus líneas va a ser en las conexiones de alta velocidad, ya sea por RDSI, ADSL o cable.
No podemos olvidar esta ultima tecnología. El cable sí que va a ser algo imparable, primero porque
es una tecnología totalmente probada -no es el caso de ADSL, que aunque en países como USA está
en uso desde hace algun tiempo, aquí sigue siendo una tecnología poco experimentada-, y con una
fiabilidad absoluta, ya que el cable no se va a 'caer' por la cuenta que les trae; sólo hay que pensar la
de servicios y opciones diferentes de ocio que pretenden meter como para darse cuenta de que no se
la van a jugar, esa es una de las razones por las que esta tardando tanto implantarse en nuestro país.
Segundo el cable posibilita más que ninguna de las demás tecnologías el acceso a traves de cuaquier
otro de los electrodomesticos que tenemos en nuestra casa, que no sea el ordenador. En USA desde
hace ya varios años se puede navegar desde la televisión sin tener que configurar nada, es cierto que
aquie tambien han llegado los "set top box" -que permiten conectarse a internet con una TV y una
línea de telefono, el módem va incorporado en la 'cajita'- pero el uso de esto ha sido mínimo y como
tantos otros inventos ha fracasado. Qué es lo que sucede, pues bien, para que se acabe de implantar
el cable en nuestras casas primero deben instalar toda una red de cable que de servicio a toda la
ciudad (algunas ya lo están desde hace tiempo), y después llevar ese cable hasta el salón de nuestra
casa. En cambio la tecnología ADSL sólo necesita el par de cobre de nuestros telefonos
tradicionales, con lo cual los cambios a nivel de infraestructura son insignificantes (hay que señalar
que el ADSL tiene truco: su caudal de entrada será mucho mayor que el de salida; esa asimetría
permite recibir muchos datos -multimedia- y enviar pocos, reproduciendo el modelo consumista y
pasivo de la televisión). Además de todo esto para dentro de 4 o 5 años nos tienen preparadas
nuevas sorpresas, como son las tecnologías de teléfonos móviles ultrarrápidas, como por ejemplo la
UMTS que permitirá tener unos accesos hasta hoy impensables para una línea que no fuese una
"frame-relay", pero de eso todavía tendremos tiempo de hablar, 4 o 5 años :-)
Con todo este panorama de nuevas tecnologías de las telecomunicaciones que se nos viene encima,
lo difícil en muchos casos es saber qué hacer, e incluso qué decir. Sin entrar ahora a valorar por qué,
se puede decir que el que haya por fin accesos gratuitos a la red es algo en cualquier caso para
alegrarnos. Por otro lado, bien es cierto que esta iniciativa de las operadoras va a generar un proceso
de agrupación como el que se genera en cualquier mercado que se liberaliza, y hay ganan siempre
los mas fuertes y, cómo no, los más grandes. Por eso el que haya acceso gratuito va a acabar con
todos esos pequeños proveedores, que se llevaban, aunque pequeña, una parte del pastel. Esto es
algo que no tiene más que dejarnos indiferentes, ya que todos esos pequeños proveedores no hacían
mas que revender un servicio de comunicaciones, pero esto no hacía en ningún caso que esas
comunicaciones fuesen más libres, más autonomas, y ni siquiera mas baratas en la mayoría de los
casos. Porque no hay que olvidar que aunque pequeñas tambien son empresas, que se mueven sólo
por motivos economicos (con la excepción de los nodos de Ipanex).
Llevamos años trabajando para que la gente se conecte a internet, para que haga un uso social, y es
ahora cuando debemos ser felices porque se ha conseguido. Por quién da igual, ¿o hubiésemos
preferido el Estado?, yo no. Como mas arriba se comenta, esto es una estrategia para hacer que se
conecte a Internet cuanta más gente mejor, y esto sin ningun lugar a dudas a quien beneficia es a la
Red, pues una red mas 'social' siempre será mejor que una red sólo de profesionales y estudiantes.
Entonces es ahora el momento en el que no podemos perder ni un nanosegundo construyendo esa
contrared de la que tanto hemos hablado. ¿No nos quejábamos siempre de que internet era sólo para
unos pocos?, ya puede dejar de serlo, pero para que esos muchos de ahora puedan hacer un uso
interesante de la telemática, debemos hacer un trabajo desde los grupos y redes antagonistas que ya
estamos en la Red. Es la hora de trabajar para que salgan adelante cuantos más servidores
antagonistas sea posible, y así crear nustro propio espacio en eso que llamamos ciberespacio. Cosas
por hacer hay muchas, pero desde hace algún tiempo existen iniciativas que pretenden 'cultivar' ese
terreno. Es por eso que buscamos la visibilidad en el ciberespacio, una visibilidad colectiva, y no
tiene por qué ser unica, al contrario, que es cambiante y ambivalente en todo momento. Del mismo
modo hay que buscar otra visibilidad más pequeña, más directa, y es que parece fundamental dar
identidad a toda aquella persona que se introduzca en la red. Evidentemente esta sería una identidad
anti-identidad, pero esta es la base para poder crear redes, posibilitando que se establezcan vínculos
de verdad entre las diferentes experiencias, grupos, y colectivos de los movimientos sociales;
vínculos a todos los niveles, y no sólo a un nivel oficial que anule las diferencias. Por eso nos gusta
internet como espacio para intervenir, precisamente por eso, porque posibilita una comunicacion
horizontal real, y no gusta experimentear con ello.
— No es gratis porque hay contrapartida
— Nos alegramos de que hay a una entrada masiva en internet, no de que sea gratuito.
El derecho a leer
Richard Stallman(*)
Extraído de La ruta hacia Tycho, una recopilación
de artículos sobre los antecedentes de la Revolución Lunar,
publicado en Luna City, en el año 2096.
El camino hacia Tycho comenzó para Dan Halbert en la Facultad, cuando Lissa Lenz le pidió que le
dejara su ordenador. El suyo se había averiado, y si no se lo dejaba alguien no podría terminar el
proyecto semestral. Ella no se habría atrevido a pedírselo a nadie, excepto a Dan. Esto situó a Dan
ante un dilema. Tenía que ayudarle, pero si le prestaba su ordenador, ella podría leer sus libros.
Además de poder ir a prisión durante muchos años por dejar que alguien leyese sus libros, la misma
idea de hacerlo le escandalizó al principio. Igual que a todo el mundo, le habían enseñado desde el
parvulario que compartir los libros era repugnante y equivocado, algo que sólo haría un pirata. Y era
muy probable que la SPA (Software Protection Authority, Autoridad para la Protección del
Software) les cogiese. Dan había aprendido en su clase de software que cada libro tenía un chivato
de copyright que informaba a la Central de Licencias de quién, dónde y cuándo lo leía. (Esta
información se utilizaba para coger a piratas de la lectura, pero también para vender perfiles de
intereses personales a comerciantes.) La próxima vez que su ordenador se conectase a la red, la
Central de Licencias sería informada. Él, como dueño de un ordenador, podría recibir el castigo más
severo, por no tomar medidas para prevenir el delito.
Por supuesto, podría ser que Lissa no quisiera leer sus libros. Podría querer el ordenador sólo para
escribir su proyecto. Pero Dan sabía que ella era de una familia de clase media, y que a duras penas
podía pagar la matrícula, y menos aún las cuotas de lectura. Puede que leer los libros de Dan fuese
para ella la única forma de terminar los estudios. Sabía lo que era eso: él mismo había tenido que
pedir un préstamo para poder pagar los artículos de investigación que leía. (El 10% de los ingresos
por ese concepto iba a parar a los investigadores que habían escrito los artículos. Como Dan
pretendía dedicarse a la investigación, tenía esperanzas de que algún día sus propios artículos, si
eran citados frecuentemente, le proporcionarían el dinero necesario para pagar el préstamo.)
Más tarde Dan supo que había habido un tiempo en el que cualquiera podía ir a una biblioteca y leer
artículos de revistas especializadas, e incluso libros, sin tener que pagar. Había estudiantes
independientes que leían miles de páginas sin tener becas de biblioteca del Gobierno. Pero en los
años noventa tanto los editores de revistas sin ánimo de lucro como los comerciales habían
comenzado a cobrar cuotas por el acceso a sus publicaciones. Hacia el año 2047 las bibliotecas que
ofrecían acceso libre a la literatura académica eran un recuerdo lejano.
Naturalmente había formas de engañar a SPA y a la central de Licencias.
Eran, por supuesto, ilegales. Dan había tenido un compañero en la clase de software, Frank
Martucci, que había conseguido una herramienta legal de depuración y la había utilizado para
saltarse el código del chivato de copyright cuando leía libros. Pero se lo había contado a demasiados
amigos, y uno de ellos le delató a la SPA para obtener una recompensa (los estudiantes muy
endeudados eran fácilmente tentados por la traición). En 2047 Frank estaba en la cárcel, no por
practicar la piratería de la lectura, sino por poseer un depurador.
Dan supo más tarde que hubo un tiempo en el que cualquiera podía poseer herramientas de
depuración. Incluso había herramientas de depuración libres, disponibles en CD, o en la red. Pero
los usuarios normales comenzaron a utilizarlas para saltarse los chivatos de copyright, y llegó un
momento en que un juez estimó que éste se había convertido en el principal uso de los depuradores.
Esto provocó que pasasen a ser ilegales, y se encarcelara a quienes los desarrollaban. Naturalmente,
los programadores aún necesitaban herramientas de depuración, pero en el año 2047 los vendedores
de depuradores sólo distribuían copias numeradas, y únicamente a programadores con licencia
oficial, y que hubiesen depositado la fianza preceptiva para cubrir posibles responsabilidades
penales. El depurador que utilizó Dan en la clase de software estaba detrás de un cortafuegos
especial para que sólo lo pudiese utilizar en los ejercicios de clase. También era posible saltarse los
chivatos de copyright si se instalaba un kernel modificado. Más adelante, Dan supo que habían
existido kernels libres, incluso sistemas operativos completos libres, hacia el fin del siglo anterior.
Pero no sólo eran ilegales, como los depuradores, sino que no se podían instalar sin saber la
contraseña del superusuario del sistema. Y ni el FBI ni el Servicio de Atención de Microsoft iban a
decírtela.
Dan acabó por concluir que no podía dejarle el ordenador a Lissa. Pero tampoco podía negarse a
ayudarle, porque estaba enamorado de ella. Le encantaba hablar con ella. Y el que le hubiera
escogido a él para pedir ayuda podía significar que ella también le quería.
Dan resolvió el dilema haciendo algo aún más inimaginable: le dejó el ordenador, y le dijo su
contraseña. De esta forma, si Lissa leía sus libros, la Central de Licencias creería que era él quién
los estaba leyendo. Aunque era un delito, la SPA no podría detectarlo automáticamente. Sólo se
darían cuenta si Lissa se lo decía.
Por supuesto, si la facultad supiese alguna vez que le había dicho a Lissa su propia contraseña, sería
el final para ambos como estudiantes, independientemente de para qué la hubiese utilizado ella. La
política de la Facultad era que cualquier interferencia con los medios que se usaban para realizar
seguimientos del uso de los ordenadores por parte de los estudiantes era motivo suficiente para
tomar medidas disciplinarias. No importaba si se había causado algún daño: la ofensa consistía en
haber dificultado el seguimiento por parte de los administradores. Asumían que esto significaba que
estabas haciendo alguna otra cosa prohibida y no necesitaban saber qué era.
Los estudiantes no solían ser expulsados por eso. Al menos no directamente. Se les prohibía el
acceso al sistema de ordenadores de la Facultad, por lo que inevitablemente suspendían todas las
asignaturas.
Posteriormente Dan supo que este tipo de política universitaria comenzó en la década de los ochenta
del siglo pasado, cuando los estudiantes universitarios empezaron a utilizar masivamente los
ordenadores. Anteriormente, las Universidades mantenían una política disciplinaria diferente:
castigaban las actividades que eran dañinas, no aquéllas que eran simplemente sospechosas.
Lissa no delató a Dan a la SPA. La decisión de Dan de ayudarle les condujo al matrimonio, y
también a cuestionarse las enseñanzas que habían recibido de pequeños sobre la piratería. La pareja
comenzó a leer sobre la historia del copyright, sobre la Unión Soviética y sus restricciones para
copiar, e incluso la Constitución original de los Estados Unidos. Se trasladaron a Luna City, donde
encontraron a otros que también se habían apartado del largo brazo de la SPA. Cuando la
sublevación de Tycho comenzó en 2062, el derecho universal a la lectura se convirtió en uno de sus
objetivos principales.
Nota del autor: El derecho a la lectura es una batalla que se libra en nuestros días. Aunque pueden
pasar 50 años hasta que nuestra forma de vida actual se suma en la oscuridad, muchas de las leyes y
prácticas descritas en este relato han sido propuestas, ya sea por el gobierno de Clinton, en EEUU, o
por las editoriales.
Sólo hay una excepción: la idea de que el FBI y Microsoft tengan (y oculten) la contraseña de
administración de los ordenadores. Ésta es una extrapolación de las propuestas sobre el chip Clipper
y otras propuestas similares de custodia de clave (key-escrow) del gobierno de Clinton, y de una
tendencia que se mantiene desde hace tiempo: los sistemas informáticos se preparan, cada vez más,
para dar a operadores remotos control sobre la gente que realmente utiliza los sistemas.
La SPA, que en realidad son las siglas de Software Publisher's Association (Asociación de Editores
de Software), no es hoy día, oficialmente, una fuerza policial. Sin embargo, oficiosamente, actúa
como tal. Invita a la gente a informar sobre sus compañeros y amigos. Al igual que el gobierno de
Clinton, promueve una política de responsabilidad colectiva, en la que los dueños de ordenadores
deben hacer cumplir activamente las leyes de copyright, si no quieren ser castigados.
La SPA está amenazando a pequeños proveedores de Internet, exigiéndoles que permitan a la SPA
espiar a todos los usuarios.
Muchos proveedores se rinden cuando les amenazan, porque no pueden permitirse litigar en los
tribunales. (Atlanta Journal-Constitution, 1 de octubre de 1996, D3.) Al menos un proveedor,
Community ConneXion de Oakland, California, rechazó la exigencia y actualmente ha sido
demandado. Se dice que la SPA ha abandonado este pleito recientemente, aunque piensan continuar
la campaña por otras vías.
Las políticas de seguridad descritas en el relato no son imaginarias. Por ejemplo, un ordenador en
una de las Universidades de la zona de Chicago muestra en la pantalla el siguiente mensaje cuando
se entra en el sistema (las comillas están en el original en inglés):"Este sistema sólo puede utilizarse
por usuarios autorizados. Las actividades de los individuos que utilicen este sistema informático sin
autorización o para usos no autorizados pueden ser seguidas y registradas por el personal a cargo
del sistema. Durante el seguimiento de individuos que estén usando el sistema inadecuadamente, o
durante el mantenimiento del sistema, pueden ser seguidas también las actividades de usuarios
autorizados. Cualquiera que use este sistema consiente expresamente ese seguimiento y es advertido
de que si dicho seguimiento revela evidencias de actividad ilegal o violaciones de las ordenanzas de
la Universidad, el personal a cargo del sistema puede proporcionar las pruebas fruto de dicho
seguimiento a las autoridades universitarias y/o a los agentes de la ley."
Esta es una aproximación interesante a la Cuarta Enmienda de la Constitución de EEUU: presiona a
todo el mundo, por adelantado, para que ceda en sus derechos.
Copyright (C) 1996 Richard Stallman. Se permite la copia literal siempre que se incluya esta nota.
Este artículo apareció en el número de febrero de 1997 de Communications of the ACM (volumen
40, número 2). Traducido del original en inglés por Pedro de las Horas Quirós y Jesús M. González
Barahona
Modificado el: Mon Sep 19 01:26:04 MET DST 1998
--------------------------------------(*)Richard M. Stallman (también conocido como ‘rms’) es el fundador del proyecto para el
desarrollo del sistema operativo libre GNU (GNU’s Not Unix, o sea, "GNU No es Unix") y de la
Free Software Foundation, que financia y difunde el proyecto GNU. GNU se refiere tanto al
desarrollo del sistema operativo completo ¾ que incluye el kernel (núcleo del sistema) Linux, que
es como se suele denominar por extensión a todo el sistema operativo¾ como al proyecto
cooperativo para desarrollarlo. El proyecto GNU nació en 1983 como una lucha para recuperar el
espíritu de cooperación antimercantil que había a principios de los años setenta en las comunidades
de hackers y eliminar los obstáculos que ya por entonces ¾ mediados de los años
ochenta¾ imponían los fabricantes de software propietario. El objetivo de GNU es promover el
desarrollo y uso de free software, construyendo un sistema operativo completo totalmente libre que
elimine la necesidad de usar software propietario (sometido a copyright). Libre significa aquí el
derecho al uso, a la copia, a la redistribución y a disponer de las fuentes para modificar cualquier
programa, sin ninguna otra restricción más que la de que nadie se apropie legalmente de esas
mejoras, ni de que nadie pueda impedir que otr@s las disfruten (es decir, libre de patentes y
copyrights). A ese derecho ¾ que protege el uso libre en vez de la propiedad¾ se le
denomina copyleft, y está plasmado legalmente en la GPL (General Public License). (N. de la Ed.)
Por qué el Software no debería tener propietarios
Richard Stallman
La tecnología de la información digital contribuye a la sociedad haciendo que sea más fácil copiar y
modificar la información. Las computadoras prometen hacer que ésto sea más fácil para todos
nosotros.
Pero no todo el mundo quiere que sea más fácil. El sistema decopyright asigna "propietarios" a los
programas software, y muchos de estos "propietarios" pretenden negar el beneficio potencial del
software al resto del público. Les gustaría ser los únicos que pueden copiar y modificar el software
que utilizamos.
El sistema de copyright se desarrolló con la imprenta --una tecnología para producir copias en masa.
El copyright funcionaba bien con esta tecnología porque sólo restringía a los productores masivos
de copias. No coartaba la libertad de los lectores de libros. Un lector corriente, que no poseyese una
imprenta, sólo podía copiar libros a mano, con pluma y tinta, y pocos lectores fueron demandados
por ello.
La tecnología digital es más flexible que la imprenta: cuando la información tiene un formato
digital, ésta se puede copiar fácilmente para compartirla con los demás. Es ésta flexibilidad la que
no encaja con un sistema como el del copyright. Ésta es la causa de las cada vez más repugnantes y
draconianas medidas que se están utilizando para obligar a cumplir el copyright del software.
Ténganse en cuenta estas cuatro prácticas de la Asociación de editores de software (SPA1):
Propaganda masiva diciendo que no se debe desobedecer a los propietarios para ayudar a los
amigos.
Ofertas a soplones para que informen acerca de sus compañeros y colegas.
Redadas en oficinas y escuelas (con la ayuda de la policía), en las que se conmina a la gente a que
pruebe que son inocentes, que no han realizado copias ilegales.
Persecución (por parte del gobierno de los EE.UU., a petición de la SPA) de gente como David
LaMacchia, del MIT (Massachusetts Institute of Technology), por el simple hecho de no vigilar los
servicios de realización de copias, y no censurar su uso.
Estas cuatro prácticas se asemejan a las utilizadas en la antigua Unión Soviética, donde toda
máquina copiadora estaba vigilada por un guarda para evitar copias prohibidas, y donde los
individuos tenían que copiar la información secretamente y pasarla de mano en mano como
"samizdat"2. Existe por supuesto una diferencia: el motivo por el que se controlaba la información
en la Unión Soviética era político; en los EE.UU. el motivo es el lucro. Pero son las acciones las
que nos afectan, no los motivos. Cualquier intento de bloquear la compartición de la información,
sin importar el porqué, conduce a los mismos métodos y a la misma severidad.
Los propietarios esgrimen diversos argumentos para otorgarse el poder de controlar cómo usamos la
información:
Insultos
Los propietarios utilizan calumnias como "piratería" y "robo", así como terminología pericial como
"propiedad intelectual" y "perjuicio", para sugerir una línea de pensamiento al público--una
analogía simplista entre programas y objetos físicos.
Nuestras ideas e intuiciones acerca de la propiedad de los objetos materiales se centran en si es
correcto o no quitarle un objeto a alguien. No se aplican directamente a la copia de los objetos. Pero
los propietarios quieren que lo apliquemos también a la copia.
Exageración
Los propietarios dicen que sufren "daños" o "pérdidas económicas" cuando son los usuarios los que
copian los programas. Pero la copia no causa un efecto directo en el propietario, y no daña a nadie.
El propietario sólo puede perder si la persona que hizo la copia hubiese pagado por una
proporcionada por el propietario.
Reflexionando un poco, la mayor parte de esas personas no habrían comprado copias. Sin embargo,
los propietarios calculan sus "pérdidas" como si todos y cada uno de los usuarios hubiesen
comprado una copia. Esto es una exageración (por decirlo suavemente).
La ley
Los propietarios muestran a menudo la situacuación legal actual, y las severas penas con las que nos
pueden amenazar. En este enfoque está implícita la sugerencia de que la ley refleja una moralidad
incuestionable, aunque al mismo tiempo somos instados a considerar estas penas como algo natural
que no puede ser imputado a nadie.
Esta forma de persuasión no está diseñada para ser rebatida por un pensamiento crítico, sino que
tiene la intención de reforzar una manera habitual de pensar.
Es elemental que las leyes no deciden entre lo que está bien y lo que está mal. Todo estadounidense
debería saber que hace cuarenta años era ilegal en muchos estados que una persona de raza negra se
sentase en la parte delantera de un autobús, aunque sólo los racistas dirían que sentarse allí era algo
malo.
Derechos innatos
Los autores reivindican a menudo una relación especial con los programas que escriben y afirman
que por lo tanto sus deseos e intereses con respecto a los programas son mayores que los de
cualquier otro. Mayores incluso que los de todos los demás. (Normalmente, las compañías, y no los
autores, son quienes poseen los derechos de autoría del software, pero se espera que pasemos por
alto esta discrepancia).
A aquellos que proponen esto como un axioma ético ("el autor es más importante que tú") sólo
puedo decirles que yo, un notable autor de software, digo que eso es una bobada.
Pero hay únicamente dos razones por las que el público en general podría sentir alguna simpatía con
la reivindación de derechos innatos:
Una razón es la analogía, cogida por los pelos, con los objetos materiales. Cuando cocino espagueti,
pongo objeciones a que alguien se los coma, porque entonces no me los puedo comer yo. Su acción
me perjudica tanto como a él le beneficia. Sólo uno de los dos puede comerse los espagueti, por lo
que la pregunta es ¿quién?. La más mínima diferencia entre nosotros es suficiente para inclinar la
balanza ética en uno u otro sentido.
Pero el hecho de que utilices o cambies un programa que yo escribí te afecta directamente a ti, y a
mí sólo me afecta indirectamente. Si le das una copia a tu amigo, os afecta a ti y a tu amigo mucho
más de lo que me afecta a mí. Yo no debería tener el poder de decirte que no hagas esas cosas.
Nadie debería tenerlo.
La segunda razón es que se le ha dicho a la gente que los derechos innatos de los autores son una
tradición incuestionable en nuestra sociedad.
Históricamente, es justamente al contrario. La idea de los derechos innatos de los autores se
propuso y se rechazó contundentemente cuando se redactó la constitución de los EE.UU. Por ello la
constitución permite un sistema decopyright, pero no requiere uno. Por eso dice que
el copyrightdebe ser temporal. También dice que el propósito delcopyright no es recompensar a los
autores, sino promover el progreso. El copyright recompensa en alguna medida a los autores, y
mucho más a los editores, pero como una medida para modificar su comportamiento.
La auténtica tradición establecida en nuestra sociedad es que el copyright coarta los derechos
innatos del público, y que ésto sólo se puede justificar si es en beneficio de la sociedad.
Aspecto económico
La última razón argüida a favor de los propietarios de software es que así se consigue producir más
software.
A diferencia de los otros argumentos, éste al menos adopta un enfoque legítimo sobre el asunto. Se
basa en una meta defendible, para satisfacer a los usuarios de software. Y es demostrable
empíricamente que si se remunera adecuadamente la producción de un bien, se producirá más
cantidad del mismo.
Pero el razonamiento económico tiene un defecto: se basa en la suposición de que la diferencia
solamente radica en cuánto dinero tenemos que pagar. Asume que lo que se desea es la "producción
de software", sin importar si éste tiene o no propietarios.
La gente acepta fácilmente esta suposición porque concuerda con nuestra experiencia con los
objetos materiales. Consideremos por ejemplo un bocadillo. Supongamos que el mismo bocadillo
puede ser obtenido, bien de manera gratuita, o bien pagando. En este caso, la única diferencia entre
ambos bocadillos es la cantidad que se paga por cada uno de ellos. El bocadillo tendrá el mismo
sabor y el mismo valor nutritivo, sea comprado o no, y en ambos casos el bocadillo sólo podrá ser
ingerido una vez. El hecho de que sea el propietario quien nos proporciona el bocadillo, no afecta
directamente más que a la cantidad de dinero que acabaremos teniendo al final.
Esto es cierto para cualquier objeto material--el hecho de que tenga o no un propietario no afecta
directamente a lo que es, o a lo que se puede hacer con él si se adquiere.
Pero el que un programa tenga o no propietarios afecta a lo que es, y a lo que se puede hacer con
una copia si se compra. La diferencia no es sólo una cuestión de dinero. El sistema de propietarios
de software alienta a éstos a producir algo, pero no a producir aquello que necesita realmente la
sociedad. Y esto provoca una polución ética intangible que nos afecta a todos.
¿Qué necesita la sociedad? Necesita información que esté realmente disponible para sus
ciudadanos. Por ejemplo, programas que la gente pueda leer, corregir, adaptar y mejorar, no sólo
utilizar. Pero lo que normalmente distribuyen los propietarios es una caja negra que no podemos
estudiar o modificar.
La sociedad también necesita libertad. Cuando un programa tiene propietarios, los usuarios pierden
la libertad de controlar parte de sus propias vidas.
Y por encima de todo, la sociedad necesita alentar el espíritu de cooperación voluntaria entre sus
ciudadanos. Cuando los propietarios de software nos dicen que la ayuda a nuestros vecinos es una
forma de "piratería", están corrompiendo el espíritu cívico de nuestra sociedad.
Por ello decimos que el software libre se refiere a las libertades, y no a la gratuidad3.
El argumento económico que esgrimen los propietarios es erróneo, pero el problema económico
general es real. Hay gente que escribe software de utilidad por el placer de escribirlo o por
admiración y amor. Pero si queremos tener más software que el que esta gente escribe, necesitamos
conseguir fondos para ello.
Hace ya diez años que los desarrolladores de software libre vienen utilizando varios métodos para
buscar financiación, habiendo conseguido algunos éxitos. No es necesario hacer rico a nadie; el
ingreso anual medio de una familia estadounidense, alrededor de los 35.000$, parece ser suficiente
incentivo para muchos trabajos que son menos satisfactorios que la programación.
Durante varios años yo viví de realizar mejoras a medida del software libre que había escrito, hasta
que una beca lo hizo innecesario. Cada mejora se añadía a la versión estándar que se distribuía, y
acababa estando disponible para el público en general. Los clientes me pagaban para que realizase
las mejoras que ellos querían, en lugar de las que yo habría considerado como más prioritarias.
La Free Software Foundation, una fundación exenta de impuestos para el desarrollo de software
libre, obtiene sus ingresos mediante la venta de CD-ROM, camisetas y manuales (todos los cuales
pueden ser copiados y alterados libremente por los usuarios), y mediante las donaciones que recibe.
Actualmente tiene una plantilla de cinco programadores, más tres empleados que gestionan las
peticiones por correo.
Algunos desarrolladores de software libre obtienen sus ingresos de la venta de servicios de soporte.
Cygnus Solutions, con unos 50 empleados, estima que alrededor del 15 por ciento de la actividad de
su plantilla se dedica a la realización y mejora de software libre--un porcentaje respetable para una
compañía de software.
Varias compañías, incluyendo Intel, Motorola, Texas Instruments y Analog Devices, se han aliado
para financiar el mantenimiento continuado del compilador libre de GNU para el lenguaje C.
Mientras tanto, el ejército del aire de los EE.UU. está financiando el compilador de GNU para el
lenguaje Ada, por pensar que ésta es la forma más económica de obtener un compilador de calidad.
(La financiación terminó hace algún tiempo; el compilador de Ada de Gnu está actualmente
funcionando, y su mantenimiento se financia comercialmente).
Todos estos son pequeños ejemplos. El movimiento del software libre es aún reducido y joven. Pero
el ejemplo de las cadenas de radio mantenidas por los oyentes de este país (EE.UU.) muestra que es
posible mantener una gran actividad sin forzar a que cada usuario pague.
Como usuario actual de computadoras, puede que estés utilizando un programa propietario. Si tu
amigo te pidiese una copia, estaría mal que te negases a hacérsela. La cooperación es más
importante que el copyright. Pero la cooperación clandestina, encubierta, no contribuye a formar
una buena sociedad. Cualquier persona debería aspirar a vivir abiertamente, erguido, con orgullo, y
esto significa decir "No" al software propietario.
Mereces poder cooperar abierta y libremente con otras personas que utilizan software. Mereces
poder aprender cómo funciona el software, y enseñar a tus estudiantes con él. Mereces poder
contratar a tu programador favorito para arreglarlo cuando falle.
Te mereces el software libre.
Notas al pie
... (SPA1
Software Publishers Association
... "samizdat"2
Nota del traductor: Samizdat es un vocablo ruso que significa "publicado por uno mismo". Con este
término son conocidos en Rusia las publicaciones clandestinas y la prensa "underground" que
circulan desafiando la censura oficial.
... gratuidad3
En inglés, el vocablo "free" es polisémico, pudiendose entender "free software" como software
gratuito o como software libre. De ahí la aclaración que hace el autor.
Una entrevista con Richard Stallman
En principio algo intimidado por la reputación que envuelve a este hombre, Joe Barr se introduce en
un intercambio fascinante con el campeón del free software.
A cargo de Joe Barr
Contacté con Richard Stallman la semana anterior a la Expo (*) y le solicité una entrevista sobre el
futuro del software libre. El miércoles me encontré con él en el puesto de la Free Software
Foundation y nos sentamos en el área del stand -en una de esas estúpidas piezas hinchables de
mobiliario plástico- para llevarla a cabo.
La pinta de Rasputín de Richard, su pelo largo y oscuro y su barba, así como su fama de dejar a los
periodistas como idiotas inútiles, me tenían en vilo. Pero su voz y sus facciones, en particular sus
ojos, son notablemente cálidos y amigables. Su mensaje -que el softwaredebe ser libre (free -en el
sentido de libre, no de gratuito(**)- se ha mantenido tan firme a lo largo de los años que muchos, yo
incluido, han asumido que el mensajero debía ser tan duro e inflexible como el mensaje. Estabamos
equivocados.
LinuxWorld Today: Cuando me estaba preparando para esta entrevista, me surgían ciertos miedos:
me preocupaban cosas como ofenderte diciendo "Linux" en vez de "GNU/Linux".
Richard Stallman: El problema no estaría tanto en el hecho de que me ofendieras, y especialmente
si se tratase de una equivocación. Lo que me interesa principalmente no es lo que tú me digas,
porque después de todo yo conozco la situación. Lo que importa es lo que le digas a otra gente y si
les sitúas con franqueza en la historia del sistema o extiendes la confusión habitual. Eso es lo que
verdaderamente importa.
LinuxWorld Today: Leí una entrevista que hiciste con Byte Magazine en 1986 y quedé sorprendido
por dos cosas: en primer lugar, si hubiera escuchado esa entrevista en 1986 habría pensado que eras
un loco al hablar de la posibilidad de un sistema que permitiría a la gente ser productiva con
ordenadores basados por entero en software libre.
Richard Stallman: Ves, tenía una ventaja. Sabía que era posible. Estuve haciéndolo junto con otro
grupo de gente allá en el MIT en los setenta. Teníamos un sistema time-sharing que había sido
desarrollado por los hackers en el AI Lab. Ese era su trabajo, desarrollar el sistema operativo. Yo me
uní a esa comunidad bastante tarde. Empezó en los sesenta y yo me uní a ella en 1971. El sistema ya
existía y funcionaba, y yo me adherí a él. Así que sabía que era posible. No tuve que especular sobre
si tendríamos éxito o no en desarrollar otro. De lo que no estaba seguro es de si conseguiríamos
juntar suficiente gente. Pero de que en principio era posible, sobre eso no tuve que hacer conjeturas.
LinuxWorld Today: También me sorprendió el hecho de que en 1986 estuvieras diciendo
exactamente las mismas cosas que dices hoy en día.
Richard Stallman: Así que una de dos: puedes decir que soy constante o que no sé aprender nada.
LinuxWorld Today: Creo que los resultados hablan por sí mismos. Pero me parece que es algo a
destacar que tuvieras una visión, una visión consistente, y que ésta constituya hoy en día una gran
parte del mundo. Es una fuerza poderosa en el mundo.
¿Qué es lo que falta todavía hoy en el sistema GNU? ¿Qué es lo que está aún por venir?
Richard Stallman: Bueno, todavía no tenemos un navegador web libre realmente bueno, y existen
un buen número de cosas como la compresión de audio y vídeo que no tenemos y que podría ocurrir
que nos fuese imposible tenerlos en EEUU a causa de las patentes. Todavía estamos trabajando en
un sustituto libre para ssh. Hay gente trabajando también en sustitutos libres para Microsoft Office.
Existen algunos procesadores de texto libres. Lo que no sé es si son suficientemente buenos. Creo
que todavía no existe ningún software libre de maquetación, pero es necesario que lo haya.
LinuxWorld Today: Las cosas que estás mencionando son casi todo aplicaciones.
Richard Stallman: Bueno, tenemos el núcleo del sistema, así que no es allí donde están faltando
cosas. Después de todo, las cuestiones referentes a la libertad se aplican de la misma forma a
programas de aplicaciones que a sistemas operativos. Decidí que debíamos lanzarnos a por el
sistema operativo primero, porque necesitas un sistema operativo en primer lugar. No puedes hacer
nada sin un sistema operativo. Mientras que estas aplicaciones individuales, cualquier aplicación
concreta, puede que mucha gente no la necesite. Pueden hacer su trabajo sin ella. Pero ahora que
tenemos un sistema operativo, sí es el momento para las aplicaciones libres. De modo que la
libertad pueda expandirse a lo largo de todo el espectro del software y todos los usuarios de
ordenador puedan tener plena libertad.
LinuxWorld Today: ¿Existe un sistema operativo nuevo a punto de cobrar vida?
Richard Stallman: Lo siento, no entiendo lo que dices.
LinuxWorld Today: Como GNU/Hurd.
Richard Stallman: El Hurd no es un sistema operativo, es un kernel. El sistema operativo GNU está
funcionando pero usando Linux como kernel. Funciona. Es un kernel fiable y sólido, es tan bueno
como lo fue cualquier kernel UNIX y, como resultado, el sistema GNU con kernel Linux es un
sistema fiable y sólido.
En este momento el trabajo con GNU/Hurd está siendo muy lento, desafortunadamente. Me gustaría
que hubiese alguien capaz trabajando a tiempo completo en ello, pero no lo hay. El resultado es que
lo tenemos funcionando pero no hemos escrito lo suficiente para aprovechar la arquitectura
avanzada y posibilitar realmente a los usuarios que se beneficien de él. Y hasta que encontremos a
alguien que haga esto, no va a ser de uso verdaderamente directo y práctico para la gente.
Así que espero que llegue alguien, pero tenga o no éxito GNU/Hurd, el sistema GNU en su
conjunto ha triunfado.
LinuxWorld Today: Tú has escrito una serie de programas. Emacs, gcc, gdb. Me olvido de algo
principal aquí pero, con el software con el que has contribuido, con el Manifiesto GNU, con la Free
Software Foundation, ¿qué crees que es lo más importante que has hecho por el software libre?
Richard Stallman: Bueno, tú estás mirando las distintas partes de algo que es realmente importante
como conjunto. El Manifiesto GNU trazó el plan para construir una comunidad en la que la gente
podría tener libertad usando exclusivamente software libre. Ahora bien, para hacer esto
necesitábamos un sistema operativo que fuera completamente libre. Eso fue GNU. Así que los
distintos programas que he escrito son importantes porque nos ayudaron a llegar a ese punto, son
piezas del sistema GNU. Pero lo que es realmente importante es el conjunto del sistema GNU.
Esto es, después de todo, por lo que Linux es importante, porque se usa como una pieza en el
sistema GNU, en la versión de GNU que la gente de hecho usa. Así que ninguna de estas piezas
individuales tendría en realidad tanta importancia si no tuviéramos el sistema completo.
Por supuesto, existen muchas piezas en el sistema y algunas de ellas las escribieron otros por
motivos completamente diferentes. Pero en el momento en que yo escribía una pieza lo estaba
haciendo para conseguir un objetivo final. Así que no creo que sea útil mirar las piezas
individualmente. Si quieres evaluar su importancia, la manera de hacerlo es preguntarse "¿en qué
medida nos ayudan a alcanzar el objetivo global?", en vez de "¿qué utilidad tiene esta pieza de
software aisladamente?"
LinuxWorld Today: ¿De dónde obtienes la mayor satisfacción personal? ¿Es el Manifiesto GNU
más importante que el software?
Richard Stallman: Diría que defender con determinación la libertad e insistir en que deberíamos
aspirar a un sistema completamente libre y no conformarnos con menos es lo más importante que he
hecho.
LinuxWorld Today: He oído que te describen como un socialista o un comunista. ¿Entra la política
en la Free Software Foundation?
Richard Stallman: La política sí, pero no soy socialista ni comunista.
LinuxWorld Today: ¿Cómo te describirías a ti mismo?
Richard Stallman: Bueno, creo que soy una especie de combinación entre un liberal y un anarquista
de izquierdas. Me gusta ver a la gente trabajar junta, voluntariamente, para resolver los problemas
del mundo. Pero si no podemos hacer eso, deberíamos conseguir involucrar al Gobierno para
resolverlos.
La idea de democracia es que ésta capacita a los ciudadanos en general para controlar el poder de
los más ricos y, en estos días en América, estamos fallando a la hora de usar esta herramienta, lo que
por supuesto aboca a la mayoría de la gente a una vida dura.
LinuxWorld Today: Especialmente el contraste entre el hombre más rico del mundo, Bill Gates, por
una parte, que obtiene toda su riqueza del software propietario, en el que la gente no tiene en
absoluto la opción de elegir, y por otra...
Richard Stallman: Bueno, debería señalar que la gente con suficiente determinación sí que tiene una
opción. Yo estaba en la misma posición en la que mucha gente decía estar y decidí que no iba a usar
eso. Cuando inicié el proyecto GNU, Microsoft no era particularmente importante o particularmente
grande, pero lo que puedes decir con certeza es que las únicas opciones alternativas eran opciones
difíciles. La mayoría de la gente mira esas opciones difíciles y dice "eso es demasiado duro para
mí". Porque no están absolutamente determinados a obtener la libertad. Lo más importante del
proyecto GNU es que está ofreciendo a la gente una alternativa al software propietario que es más
fácil y, en la medida en que es más fácil, más gente siente que puede elegirlo. Así que esta es la
manera en la que extiende la libertad a la gente, ofreciéndoles un camino menos heroico para poder
obtener libertad.
De todas formas, la gente que me llama comunista está empeñada en el hostigamiento a los rojos.
Es algo típico. Si cualquiera critica algo de lo que los negocios están haciendo, hoy en día, le cae el
apelativo de comunista.
Cuando la gente decía "no envenenéis el río", se les llamaba comunistas. Pero no querían acabar
con los negocios. Querían acabar con el envenamiento del río. El movimiento del software libre
tiene mucho que ver con eso. Se parece mucho al movimiento medioambiental porque el objetivo
no es acabar con los negocios, el objetivo es poner fin a un cierto tipo de contaminación. Pero en
este caso no se trata de contaminación del aire o del agua, sino de contaminación de nuestras
relaciones sociales.
Cuando alguien dice "aquí tienes algo bonito que podrás disfrutar usando, pero si lo compartes con
tu vecino te llamaremos pirata y te meteremos en la cárcel", está contaminando el recurso más
importante de la sociedad, que es la buena voluntad, el deseo de cooperar con otra gente.
LinuxWorld Today: Si he entendido lo que has dicho y escrito anteriormente, es aquí donde pones el
énfasis.
Richard Stallman: Sí, esa es la razón por la que decidí dedicar mis esfuerzos al software libre, para
cambiar un sistema detestable. Y no me refiero a un sistema informático. Me refiero a un sistema
social.
LinuxWorld Today: Te oí la noche pasada en la ceremonia de premios, diciendo que habías vivido
durante una época en tu oficina en el MIT. ¿Todavía vives allí?
Richard Stallman: No, no me dejarían. Me gustaría, es muy conveniente.
LinuxWorld Today: ¿Cómo pagas tus recibos? ¿Qué ingresos tienes?
Richard Stallman: En estos días me pagan por hablar. Me he ganado la vida de varias maneras. En
un determinado momento, durante casi todo un año después de que GNU Emacs se desarrollara por
primera vez, estuve vendiendo copias de GNU Emacs. Después, durante varios años, estuve dando
servicio técnico de software libre. Estuve aceptando comisiones para añadir nuevas características
al compilador de C, dando clases sobre Emacs y sobre cómo programar gcc.
Imagino que habría continuado haciendo esto pero obtuve un premio importante y no tuve que
hacerlo más.
LinuxWorld Today: Así que tienes tus necesidades básicas cubiertas...
Richard Stallman: Bueno, ahora lo están, pero cuando empecé el proyecto GNU no podía estar
seguro de ello. No era rico y no sabía cómo me iba a ganar la vida. Pero afortunadamente vivo con
poco dinero. Me he resistido a adquirir los caros hábitos que otra gente pilla tan pronto como
consiguen suficiente dinero para ello. Ya sabes, como casas y coches y niños y barcos y aviones. O
coleccionar arte. La gente tiende a pensar "tengo dinero ahora, déjame buscar cosas frívolas para
fundírmelo". Pero mi idea era "voy a ahorrar esto de forma que en el futuro no tenga que
preocuparme por ello". Vivir barato ayuda en ese sentido. También me permitió decidir qué es lo
que iba a hacer con mi vida, en vez de que el dinero decidiera por mí.
LinuxWorld Today: ¿Todavía escribes software?
Richard Stallman: No una cantidad terrible. Me he visto obligado a prepararme y promocionarme
en el management.
LinuxWorld Today: ¿Así que te estás haciéndo cargo de la dirección de la FSF?
Richard Stallman: Bueno, lo intento. Todavía saco tiempo para corregir bugs en Emacs y añadir
nuevas características. Pero no tanto tiempo como me gustaría.
LinuxWorld Today: ¿Pasas la mayor parte de tu tiempo en el circuito de las charlas?
¿Haciendo bolos como este?
Richard Stallman: Paso la mayor parte de mi tiempo viajando. En parte porque cuando voy a algún
sitio intento disfrutarlo. Así que no me limito a ir y volver de nuevo tan pronto como sea posible. A
menudo me quedo un tiempo. Eso si se trata de un lugar al que me guste ir. Si es un sitio al que no
deseo ir especialmente, sólo me desplazaré hasta allí si creo que es realmente importante.
LinuxWorld Today: Para mí es emocionante encontrarme contigo.
Richard Stallman: Entonces difunde la palabra que habla de libertad.
LinuxWorld Today: Ese es tu mensaje.
Richard Stallman: Insta a la gente a incorporarse a la filosofía del software libre en vez de a la
de open source.
LinuxWorld Today: ¿Y cuál es la distinción?
Richard Stallman: La diferencia está en que la filosofía de open source tiene que ver con hacer
software fiable y potente. Enfatizan los valores prácticos. Y no se equivocan, pero estos valores no
lo son todo. Yo creo que la libertad es más importante que el software potente y fiable. Si todo lo
demás es igual, querré el software potente, más fiable. Pero si tengo que elegir entre un programa
más potente y mi libertad, elegiré mi libertad.
Usaré software libre incluso si es menos potente o menos fiable, porque la libertad es lo más
importante, y es en esto en lo que consiste el movimiento por el software libre. En cómo obtenemos
la libertad. Queremos hacer software potente y fiable porque de esta forma más gente lo usará y
tendrá libertad.
LinuxWorld Today: ¿Por qué la Free Software Foundation no se dirige a Netscape, AOL, quien sea
y les dice: "Dadnos Mozilla y completaremos el proyecto."
Richard Stallman: Bueno, nunca lo he pensado. No sé si técnicamente podemos hacer mejor trabajo
del que ellos están haciendo, quizá podríamos. Por otra parte, no veo ninguna razón para pensar que
Netscape quiere renunciar al proyecto. ¿Quieren hacerlo? Me refiero a que no he tenido noticias de
ello. Intuyo que quieren terminarlo.
LinuxWorld Today: Estoy seguro de que quieren, pero hay mucha gente descontenta con las
licencias, quizás.
Richard Stallman: Yo estoy descontento con las licencias de Netscape. Es una licencia de software
libre pero quedan ciertos flecos, les he pedido que los cambien; en fin, el que lo hagan depende de
ellos.
LinuxWorld Today: Pero ellos no están recibiendo aportaciones de la comunidad de desarrolladores.
Richard Stallman: Ese es un fenómeno interesante. No sé por qué ocurre. No recuerdo exactamente
qué explicación dio de esto Jamie Zawinski [el desarrollador líder de Mozilla], ¿te acuerdas?
LinuxWorld Today: Sí, dio varias razones. Número uno: es un software muy, muy complejo. Las
expectativas eran demasiado altas para cumplir con lo prometido, que era demasiado, demasiado
pronto. No es una tarea trivial. Número dos: dijo que Netscape estaba haciendo todo el desarrollo, o
el 90% del desarrollo.
Richard Stallman: ¿Cuál era su explicación del por qué otra gente no se unía al proyecto? ¿Tiene
alguna idea de por qué ocurre esto? No tendría por qué saberlo necesariamente. Ninguno de
nosotros tendría por qué saberlo necesariamente. Pero quizás él había estado prestando atención
para averiguar por qué la gente no se unía.
LinuxWorld Today: No creo que dijera por qué.
Richard Stallman: Yo no sé por qué ocurre. Creo que quizás el hecho de que su licencia no fuese
una licencia imparcial, de que otorgara a Netscape un privilegio especial con el código de otra
gente. Imagino que esa era parte de la razón.
LinuxWorld Today: Sean cuales sean las razones, no ha recibido aceptación social.
Richard Stallman: Es también concebible que Netscape esté compitiendo consigo misma. La gente
que no está firmemente comprometida con el software libre y con la libertad piensa que está bien
usar Netscape. Es decir, no Mozilla, sino el navegador Netscape que todavía está solamente
disponible en formato binario. Y si están contentos usando eso, entonces no ven ninguna razón para
preocuparse o cuidar de Mozilla.
LinuxWorld Today: ¿Qué navegador usas?
Richard Stallman: Uso Lynx [navegador libre sólo-texto, N. de la T.]. De todas formas no estoy
terriblemente interesado en las imágenes. Las considero como una distracción-caramelo para los
ojos y me parecen molestas en las páginas web. Las hace difíciles de leer y los anuncios tienden a
ser gráficos, y yo no quiero ver anuncios.
LinuxWorld Today: Estoy sorprendido por el hecho de que dos de las maneras en las que te has
ganado la vida desde el principio de este camino se parecen mucho a lo que ha hecho Michael
Tiemann, co-fundador de Cygnus Solutions (***). Excepto que tú lo has hecho a nivel individual en
vez de a nivel corporativo.
Richard Stallman: Absolutamente. Es cierto.
LinuxWorld Today: Michael Tiemann me dijo que cuando leyó el Manifiesto GNU vio un plan de
negocios donde otros veían lo que tú estabas diciendo.
Richard Stallman: Bueno, en verdad él puede haber visto un aspecto de lo que había allí. Porque yo
hablaba en el Manifiesto GNU sobre formas en las que podría haber negocios de software libre.
Pero mi preocupación principal no era en torno a los negocios, sino en torno a la libertad.
Sí, yo he hecho negocios. Yo he hecho personalmente negocios confree software. Creo que los
negocios con software libre son algo bueno. Pero aunque hagamos negocios para ganarnos la vida y
vivir, hay cosas que están sobre y más allá de eso. Tal y como hacer del mundo un sitio mejor. Así
que yo aspiraba a algo más allá del hecho de ganarme la vida. Sí, yo hago negocios para ganarme la
vida y no me avergüenzo de ello. Pero si eso fuera todo lo que yo hiciera, no tendría tanta
importancia.
LinuxWorld Today: Los conceptos de libertad, tal y como tú los formulas, en la manera en la que se
aplican al software -¿a qué otras formas de expresión deberían aplicarse?
Richard Stallman: Algunos de los temas se transfieren a cosas como libros y música, cosas que
puedes tener en tu ordenador y otras que no. Para algunas de ellas, es útil hacer modificaciones y
para otras no.
LinuxWorld Today: ¿Por su utilidad?
Richard Stallman: Por cómo la gente las usa y de qué están hechas. Introducir modificaciones en
novelas no es tan importante como lo es en el software. Los programas están hechos para funcionar,
mientras que las novelas están hechas para que se las aprecie. De modo que es esencial que la gente
tenga la libertad de introducir cambios en el software y publicar versiones modificadas. No creo que
sea esencial tener esa libertad para las novelas. Pero, por otra parte, la libertad para hacer copias
para tus amigos es esencial para todo tipo de cosas que puedan ser publicadas y puedas tener en tu
ordenador.
LinuxWorld Today: ¿Cómo puede la gente implicarse en la Free Software Foundation?
Richard Stallman: Echa un vistazo a www.gnu.org. Tenemos toda una serie de sugerencias de cómo
la gente puede ayudar escribiendo código o contribuyendo a administrar nuestros sistemas si son
buenos administradores de sistemas deseando trabajar. O escribiendo documentación. Realmente
necesitamos documentación. Necesitamos buenos escritores de documentación, más de lo que
necesitamos buenos programadores, así que si tienes la capacidad de escribir buena documentación,
eso es lo que deberías hacer. Cuando la gente aparece para programar, ofreciendo escribir software,
y me entero de que pueden escribir documentación, les suplico que en vez de programar hagan esto
último. Porque la buena documentación es esencial y para un sistema libre necesitamos
documentación libre, documentación que podamos distribuir como parte del sistema. Existen
muchos manuales publicados sobre el software libre, pero la mayoría de ellos no son libres. Por
supuesto, estoy hablando todo el tiempo sobre libertad, no sobre precios. El problema es que el
texto de estos manuales está restringido. No se te permite copiarlos y redistribuirlos y publicar
versiones modificadas de ellos.
LinuxWorld Today: ¿Has oído algo sobre el libro que IDG Books,LinuxWorld, Nicholas Petreley y
yo vamos a hacer? El OpenBook?
Richard Stallman: No, pero puede que esté interesado en él.
LinuxWorld Today: Será redistribuible y modificable libremente.
Richard Stallman: ¡Guau! Si se trata de eso, entonces suena exactamente como lo que más
necesitamos. Tenlo por seguro. Mantenme al tanto.
LinuxWorld Today: Desde luego que lo haré. Estará escrito por la comunidad, Nicholas y yo sólo
serviremos de editores.
Richard Stallman: ¿Sobre qué tratará?
LinuxWorld Today: Tratará sobre "Essential Linux".
Richard Stallman: Espero que lo llaméis GNU/Linux.
Agosto de 1999
(c) LinuxWorld, published by Web Publishing Inc.
(La traducción castellana a cargo del Área Telemática del CSOA el
Laboratorio www.sindominio.net)
Sobre el autor de la entrevista
Joe Barr es un columnista semanal de LinuxWorld que vive en Austin, Texas. Desde 1974 ha
trabajado como programador, analista, consultor o directivo. Después de un corte de pelo en 1992
que le hizo inelegible como directivo, volvió a su primer amor, la programación. En 1994 empezó
escribiendo la columna "Papa Joe's Dweebspeak Primer" que vive ahora en forma de carta/webzine
en www.pjprimer.com. Un sitio que ha corrido en un servidor linux desde su origen.
Notas
(*) Se refiere a la LinuxWorld Expo, que tuvo lugar en San José, en el corazón de Sillicon Valley,
California (EE.UU.), en agosto de 1999 [N. de la T.].
(**) Esta aclaración, que se repetirá a lo largo de la entrevista, es para fijar la polisemia que en
inglés tiene el término free. En efecto,free software puede significar en inglés tanto software
gratuito comosoftware libre. Esta ambigüedad fue una de las justificaciones que llevó a Eric
Raymond y a otros a promover el uso de open sourcecomo sustitutivo del concepto de free
software. Stallman y mucha otra gente no están de acuerdo y mantienen que open source["código
fuente disponible"] produce otras confusiones aún más indeseables, derivadas de poner el acento en
la publicación del código fuente en vez de en la libertad para poder usarlo, modificarlo y
distribuirlo. El software libre implica que se distribuya con sus fuentes, pero el open source de
ningún modo presupone que este sea libre (en el sentido de poderse copiar, modificar y redistribuir,
fundamentos del free software). Además, la confusión terminológica del adjetivo free (gratis y libre)
se produce en el ámbito anglosajón, pero no se da en muchas otras lenguas (como el castellano, por
ejemplo, donde tenemos dos palabras diferentes) [N. de la T.].
(***) Cygnus es la primera y probablemente la mayor empresa que trabaja con software libre y
cuyas aportaciones a la comunidad delfree software -liberando código y manteniendo aplicaciones
fundamentales como el compilador de C- han sido numerosas y de un valor extraordinario. [N. de la
T.]
¡"Si uno mira a la realidad lo suficientemente cerca,
podrá ver los píxels."
Dicho anónimo que circula por Internet.
Internet se presenta a sí misma como el primer foro permanente donde millones de personas de todo
el mundo intercomunican de manera autónoma independientemente de su edad, sexo, nacionalidad,
raza o creencias. Con ello se pone en marcha una nueva mitología y una nueva posibilidad de creer
que por fin existe un lugar abierto y seguro donde reunirnos y compartir en ausencia de fronteras,
líderes, amos, policía ni ejército: un gran espacio para el diálogo construido sin contaminar, sin
expoliar, sin sacrificios, sin muerte. Curiosamente, una gran máquina comunicativa vendría a
efectuarse precisamente ahora que ya no queda nada que comunicar y cuando la posibilidad de que
ocurra algo diferente parece ahogada por el todo es lo mismo.
Las nuevas tecnologías comunicativas no suscitan oposición abierta, pero sin duda producen
rechazo. Aunque desde los movimientos sociales a las comunidades cyberpunks, pasando por
multitud de colectivos radicales, parece abrirse o al menos no se niega rotundamente la posibilidad
de usos liberadores, comportamientos individuales manifiestan resistencia e incluso hostilidad ante
la continua renovación tecnológica que, al requerir siempre nuevos adiestramientos, en definitiva
impone una intensificación directa o indirecta de la jornada laboral.
Desde este punto de vista la escalada de nuevas tecnologías sería sufrida sencillamente como la
obligación de trabajar más. Pero su funcionalidad en la recomposición del ciclo productivo va más
allá, pues cuando el tiempo de vida en su totalidad tiende a convertirse en tiempo de trabajo, y
cuando la comunicación deviene un elemento productivo primordial, la sociedad en su conjunto
trabaja como una gran máquina productiva cuya integración no sería tan eficiente sin las tecnologías
comunicativas, de entre las cuales Internet es la más paradigmática.
No es fácil caracterizar aquello que es Internet debido a que esta red de redes posee la doble calidad
indivisible de aquello que es al mismo tiempo un producto y también su propio medio de
producción, y que por tanto satisface necesidades al tiempo que las instituye. Internet es una
nueva tecnología y al mismo tiempo es una infraestructura para la comunicación; infraestructura
que esglobal y que tiene propósito universal. Como tecnología, Internet es a la vez artefactual, pues
está integrada por ordenadores, cables o satélites materiales claramente identificables; es también
tecnología organizativa, pues impone un determinado modelo de interacción comunicativa: la red; y
finalmente es una tecnología simbólica, pues vehicula la construcción de nuevas realidades
materiales y virtuales que no podrían producirse de otro modo.
Al mismo tiempo Internet es una infraestructura con aspiraciones globales, pues tiende a englobar
toda la realidad productiva en sus múltiples aspectos de producción, distribución, consumo,
espectáculo, participación... Y su propósito es universal, pues no ha sido desarrollada, y en ello
estriba en gran medida su potencia, para proveer servicios particulares. Por el contrario, soporta
todo tipo de información, ya sea ésta codificada como texto, datos, imagen estática o en
movimiento, sonido, e incluso realidad virtual, y no se prevén límites a la cantidad o variedad de los
servicios que puede ofrecer.
El carácter novedoso de Internet estriba en ser la primera infraestructura comunicativa global y
universal organizada según el modelo de red. Es cierto que se han desarrollado otras muchas
tecnologías comunicativas pero, o bien no soportan satisfactoriamente nuevas maneras de codificar
la información (caso del teléfono) o bien se organizan según un modelo centralizado que no soporta
la interacción (caso de la televisión).
Puesto que una red no es simplemente un conjunto de canales de comunicación interconectados,
sino también una técnica organizativa, Internet no es solamente un modo más sofisticado de
mantenernos informados, sino una infraestructura adecuada para la comunicación y la cooperación
social en la justa medida que el actual proceso de producción social demanda, aunque precisamente
por su carácter global y universal pueden producirse excesos de participación que, probablemente,
serán controlados a través del precio de los accesos y de los servicios.
Las redes de ordenadores son una respuesta tecnológica a la necesidad de aumentar la productividad
a través de la integración de la información y de la utilización intensiva de las máquinas, lo que
eufemísticamente se conoce como compartición de recursos. Antes de su aparición, la compartición
de información por parte de varios ordenadores sólo era posible mediante la utilización de
dispositivos de almacenamiento extraíbles (por ejemplo, nuestros disquetes de hoy en día). El uso
de unidades de almacenamiento extraíbles permitía a varios usuarios compartir información, pero
no permitía compartir otro tipo de recursos tales como impresoras, discos duros, o programas. Las
tecnologías LAN (Local Area Network) vinieron a resolver este problema. Utilizando las diversas
tecnologías LAN disponibles fue posible interconectar varios ordenadores no muy alejados entre sí,
por ejemplo situados en un mismo edificio, a fin de que pudieran compartir información, programas
y demás recursos tales como impresoras o discos duros.
Paralelamente al desarrollo de las tecnologías LAN, aparecieron las tecnologías WAN (Wide Area
Network). Las tecnologías WAN vinieron a satisfacer la necesidad, surgida especialmente en
centros de investigación industriales y académicos, de acceder a un ordenador situado a muchos
kilómetros de distancia (por ejemplo al otro lado del Atlántico) para utilizar su capacidad de
cálculo.
De las tecnologías LAN y WAN surgieron las redes. Las redes se mostraron más potentes que la
suma de sus componentes, y la compartición de recursos empezó a parecer algo natural, incluso a
pesar de las demoras que toda compartición conlleva. Pero la proliferación de redes produjo nuevas
necesidades tecnológicas.
Una red de ordenadores no es un grupo de ordenadores conectados entre sí, sino un dispositivo con
sus propias características mecánicas, eléctricas y lógicas cuya existencia es independiente de los
ordenadores que la utilizan. Los ordenadores no son la red. Simplemente se conectan a ella
temporal o permanentemente y utilizan los servicios que ésta proporciona: por ejemplo, el acceso a
una impresora, la transferencia de un fichero, la ejecución de un programa o el envío de un mensaje.
La consecuencia de este detalle técnico es muy relevante, pues significa que no pueden unirse dos
redes pequeñas para formar una red mayor simplemente tirando un cable entre ambas. La mayoría
de tecnologías LAN son incompatibles entre sí. Lo mismo ocurre con las tecnologías WAN y por
supuesto entre unas y otras. Cada tecnología tiene sus propias especificaciones respecto a voltaje,
frecuencia, modulación, codificación, direccionamiento, transporte etc. A finales de los años setenta
había muchas LAN y alguna WAN. No había, sin embargo, la posibilidad de unirlas entre sí, de
manera que cada red permanecía aislada.
A finales de los años sesenta, el Departamento de Defensa de los EE.UU. a través de la agencia
federal ARPA (Advanced Research Projects Agency) se interesó por desarrollar la investigación
sobre redes de ordenadores utilizando gran variedad de tecnologías. Según se cuenta, ARPA
pretendía que las redes de ordenadores del Departamento de Defensa pudieran mantener la
operatividad ante un eventual ataque soviético. Para ello, las redes se debían organizar propiamente
como redes, es decir, sin un lugar central que las hiciera vulnerables. ARPA asumió la interconexión
mútua de distintas redes como un problema de carácter estratégico para la defensa de EEUU, e
interesó a investigadores tanto industriales como académicos en su solución, les instó a discutir sus
hallazgos y poner en común sus proyectos, y puso a su disposición medios para aplicar sus
propuestas. Dado que el objetivo era la interconexión entre las LAN y las WAN, el proyecto
auspiciado por ARPA empezó a conocerse como internetwork (interredes) y con el tiempo el
término abreviado, internet, se aplicó tanto a los proyectos de investigación como a las redes
prototipo que se desarrollaron. ARPA concibió el proyecto de la interconexión entre redes como
algo eminentemente operativo, e instó a los investigadores a aplicar sus descubrimientos en la WAN
de ARPA llamada ARPANET. Sobre la estructura de ARPANET los ingenieros del proyecto internet
desarrollaron una interred prototipo que, para distinguirla de otros prototipos fue bautizada como
Internet (la inicial con mayúsculas). De esta manera, Internet fue la red utilizada por los
investigadores del proyecto para intercambiar documentos, poner en común ideas y coordinar su
trabajo, mientras que al mismo tiempo fue una red experimental sobre la que se aplicaron esas ideas
y proyectos, adquiriendo desde el primer momento el doble carácter de ser a la vez productora y
producida.
A mediados de los años setenta las empresas informáticas que habían desarrollado tecnologías LAN
o WAN no sólo mantenían en secreto los resultados de sus investigaciones, sino que patentaban las
tecnologías para garantizar la propiedad sobre ellas. Las empresas creían que crear sistemas
cerrados preservados de influencias exteriores garantizaba de mejor manera sus beneficios. Por el
contrario ARPA decidió que Internet fuera un sistema abierto y en consecuencia los resultados de
proyecto se hicieron públicos. Contraviniendo lo que por aquel entonces era habitual, todas las
especificaciones de Internet fueron publicadas y puestas a disposición de cualquier empresa que
quisiera desarrollar una tecnología compatible.
A principios de 1983 una nueva manera de interconectar redes había sido lo suficientemente
desarrollada, probada y depurada como para ser de utilidad al ejército de los Estados Unidos y
ARPA conectó a Internet todas las unidades militares.
Mientras ARPA auspiciaba el proyecto Internet, ingenieros de la empresa Bell desarrollaban otra
tecnología: el sistema operativo Unix. Hasta ese momento cada sistema operativo había sido
desarrollado para una determinada arquitectura de ordenador, es decir, para una determinada
estructura del hardware. En consecuencia, el desarrollo de una nueva arquitectura de ordenador
exigía la implementación de un nuevo sistema operativo. Bell aspiraba a desarrollar un sistema
operativo portable, es decir, adaptable a cualquier arquitectura de ordenador. A fin de probar la
portabilidad de la tecnología Unix, Bell decidió hacer público no sólo el uso de este sistema
operativo, lo que significaba su distribución libre y gratuíta, sino el sistema operativo en sí, de
manera que hizo público el código fuente de Unix e instó a profesores y estudiantes a que lo
probaran en nuevas máquinas, siendo en la Universidad de California en Berkeley donde el interés
por Unix fue mayor.
La agencia federal ARPA, al caso de esta movida, supo ver la enorme capacidad productiva que se
ponía en marcha gracias a la libre distribución del software y negoció un convenio de investigación
con la universidad de Berkeley: ARPA suministraba a la universidad una copia del software
desarrollado en el proyecto Internet, y los investigadores universitarios se comprometían a
incorporar este software en las nuevas versiones de UNIX.
A partir de este momento un sistema operativo de libre distribución conocido como UNIX contenía
todo el software necesario para poner en marcha una red bajo la tecnología Internet. Muchos
universitarios construyeron redes experimentales con fines académicos utilizando este software y
empezaron a proliferar internets que, aunque no estaban conectadas físicamente con Internet,
utilizaban la misma tecnología y experimentaban con ella.
A finales de los años setenta, muchos investigadores industriales y académicos manifestaban la
necesidad del trabajo en red. La agencia federal NSF (National Science Foundation), responsable de
la investigación y enseñanza de ingenierías, asumió el proyecto de interconectar a todos los
investigadores informáticos en una sola red que se llamaría CSNET. ARPA apoyó el proyecto y
ofreció Internet como infraestructura para CSNET. CSNET proporcionó conexiones Internet a los
departamentos de informática de los centros universitarios pero, como la conexión a era cara,
desarrolló maneras de proporcionar los servicios de la red sin una conexión física completa, siendo
así como Internet comenzó a ofrecer distintosmodos de acceso. El hecho de proveer de acceso a
Internet a los centros académicos tuvo resultados multiplicadores. Muchos estudiantes en busca de
temas para sus proyectos de fin de carrera investigaron sobre Internet, pusieron a prueba la
capacidad de la red, idearon aplicaciones para probar su funcionalidad y aportaron entusiasmo,
creatividad y capacidad productiva. Cuando en 1983 el ejército de los Estados Unidos decidió
utilizar Internet como red operativa, muchos investigadores, profesores y estudiantes de centros
universitarios habían contribuido a la robustez de esta nueva tecnología.
Durante los años siguientes, Internet se consolidó como infraestructura para la comunicación. El
crecimiento de Internet no debe sólo medirse, como suele hacerse, en términos de cantidad de
máquinas conectadas, sino también en términos de su funcionalidad estructural. Distintas agencias
federales de los Estados Unidos, tales como la NASA (National Aeronautics And Space
Administration) o el DOD (Departament of Defense) adoptaron la tecnología Internet bien fuera
con conexión física o sin ella, mientras que la NSF apostó por Internet como medio de conexión
entre investigadores en pro de la mayor competitividad de Estados Unidos en el mercado mundial.
Y la estructura física de Internet quedó pequeña.
En 1987, la NSF asumió la construcción de una nueva columna vertebral para Internet, adjudicando
en concurso público las líneas de transmisión de larga distancia a MCI, los ordenadores a IBM y la
operatividad de la red a MERIT. Internet triplicó su capacidad, pero a finales de 1991 de nuevo
quedó pequeña. La NSF decidió dejar de sufragar los gastos de Internet e implicó a las empresas
privadas en la construcción de una nueva columna vertebral, de manera que IBM, MCI y MERIT
formaron una asociación llamada ANS (Advanced Networks and Services) que construyó una nueva
columna vertebral para Internet conocida como ANSNET. En esta ocasión su capacidad se
multiplicó por treinta, y por primera vez los cables y ordenadores sobre los que se sustenta Internet
dejaron de pertenecer al gobierno de los Estados Unidos para pertenecer a una empresa privada,
iniciándose así el proceso de privatización de Internet y su uso como red comercial tal y como hoy
la conocemos, es decir, como un terreno abonado para la venta no sólo de ordenadores y programas,
sino que también de accesos y servicios.
Mientras en los Estados Unidos se desarrollaba la tecnología Internet, en Europa se desarrollaba con
el mismo propósito la tecnología X.25. Aunque en sus aspectos artefactuales las tecnologías Internet
y X.25 vienen a ser la misma cosa, difieren enormemente como tecnologías simbólicas. A diferencia
de Internet, en cuyo desarrollo fueron implicadas multitud de capacidades productivas, la tecnología
X.25 fue desarrollada y aplicada bajo el control de las compañías telefónicas, que son monopolios
de sus respectivos estados. El caso es que mientras la tecnología X.25 se desarrolló exclusivamente
como tecnología artefactual para el transporte de la información (servicios bancarios, reservas en
ferrocarriles o líneas aéreas...) Internet incorporó multitud de servicios que son reflejo de la
pluralidad de subjetividades que intervinieron en su construcción. Desde juegos de rol hasta
comunicados del subcomandante Marcos, potencialmente todo lo que hoy es decible se dice en
Internet. Por eso, mientras que otras redes de redes han pasado desapercibidas, Internet es un
fenómeno que, dicho sea de paso, entró en Europa financiado por IBM.
Internet no es el único servicio de comunicación disponible que enlaza ordenadores, pero difiere de
los servicios pioneros como Compuserve, USENET o American Online. Mientras que estas redes
comerciales fueron diseñadas atendiendo al servicio que debían prestar, es decir, adaptando su
hardware y su software a la mejor prestación del servicio, Internet no ha sido diseñada para ofrecer
ningún servicio específico. La especialización que en principio favoreció la competitividad de los
servicios telemáticos ha redundado al mismo tiempo en su falta de competitividad, pues los costos
de agregar nuevos servicios a redes diseñadas para otros usos son muy elevados. Por el contrario,
Internet no ha sido diseñada para ofrecer ningún servicio en particular y puede, por tanto, ofrecerlos
todos incluyendo aquéllos que ni siquiera habían sido concebidos cuando se desarrolló la tecnología
básica. Flexibilidad, versatilidad y adaptabilidad (cualidades todas ellas muy valoradas por la
patronal) confieren a Internet ese carácter de tecnología-infraestructura universal hegemónica en el
mercado de las redes de redes.
El software que proporciona los servicios en Internet está organizado según dos capas funcionales:
la capa inferior contiene el software necesario que permite la comunicación entre ordenadores, y se
conoce como TCP/IP. La capa superior está formada por las aplicaciones que proporcionan los
servicios. El conjunto de protocolos TCP/IP es el software que proporciona los recursos de
comunicación básicos utilizados en Internet, y constituye la base sobre la que se sustentan todos los
servicios.
A pesar de la diversidad de servicios que ofrece Internet y de las distintas apariencias que estos
servicios adoptan, todas las aplicaciones que corren en Internet siguen el mismo modelo de
organización y se ajustan al paradigma conocido como cliente-servidor.
La interacción de dos ordenadores bajo el modelo cliente-servidor significa que uno de ellos ofrece
un servicio y el otro lo demanda o, dicho de otro modo, que el ordenador cliente solicita un servicio
que el ordenador servidor le presta. Por ejemplo, si en un ordenador un programa servidor maneja
archivos, entonces un programa cliente en otro ordenador le podrá solicitar la transferencia de uno
de esos archivos. Si un servidor maneja un juego multiusuario, quien quiera participar en el juego
deberá disponer de un programa cliente y solicitar un acceso al servidor del juego.
La adopción del modelo cliente-servidor como paradigma de interacción no es un asunto inocente,
pues determina absolutamente (igual que nuestras democracias) no aquello que puede decirse, sino
el procedimiento para decirlo.
Aunque en sentido informal hablamos de ordenadores que se conectan, en sentido estricto
únicamente los programas se pueden comunicar. Cuando en Internet se establece una conexión ello
significa que dos programas, necesariamente uno en calidad de cliente y otro en calidad de servidor,
están interactuando.
Aunque Internet no "cierra" y siempre está dispuesta a transportar información de un punto a otro,
no hay por qué suponer que la comunicación siempre es posible. En cierto modo, Internet funciona
como una red telefónica: el programa cliente debe llamar y el programa servidor debe responder la
llamada antes de que la comunicación sea efectiva. Dicho sea de otro modo, la comunicación sólo
es posible si el servidor está en funcionamiento y acepta llamadas.
Debido a que son los programas y no los ordenadores los que se comunican, y debido a que los
ordenadores pueden ejecutar varios programas simultáneamente, cada ordenador puede participar
en muchas conversaciones al mismo tiempo, actuando en unas como cliente y en otras como
servidor.
Internet es una red entre iguales o, con otras palabras, es una tecnología punto a punto (peer-to-peer
networking). El términopunto a punto enfatiza la relación simétrica entre todos los ordenadores
conectados a la red, la ausencia total de niveles jerárquicos, la posibilidad de interactuación en
modo indeterminado de todos con todos, y por tanto la facultad de cualquier ordenador de iniciar
arbitrariamente la conversación con cualquier otro. Las redes entre iguales carecen de la
vulnerabilidad de aquellas otras organizadas según el modelo maestro-esclavo, en las que existe un
lugar central (un ordenador) desde el que se organiza la conversación. El ordenador maestro se
dirige reiteradamente a cada uno de los ordenadores esclavos y pregunta ¿tienes algo que decir a
alguien? Si la respuesta es afirmativa el esclavo envía los datos al maestro, que a su vez los envía al
esclavo destinatario, y así sucesivamente.
Si el modelo maestro-esclavo puede describirse como "habla sólo cuando se te pregunte", el modelo
punto a punto se describiría como "todas las iniciativas comunicativas son bienvenidas" o incluso
"di lo que sea, pero no calles". Ahora bien, el hecho de que cualquiera pueda iniciar la conversación
no significa que ésta carezca de reglas. Antes se ha mencionado que el software Internet está
organizado en dos capas funcionales. Pues bien, en la capa inferior, aquella que garantiza la
comunicación, Internet es una red punto a punto, mientras que en la capa superior, aquélla que
ofrece servicios, Internet es una red cliente-servidor.
A modo de resumen, digamos que utilizar Internet, a parte de las cuestiones relacionadas con el
acceso a la red, supone discernir el tipo de servicio que se quiere utilizar, disponer en nuestro
ordenador de un programa cliente para ese servicio, y conocer la dirección Internet de un servidor al
que se le solicitará el servicio.
La tecnología Internet es, entre otras muchas cosas, un paradigma de interacción. Es cierto que en la
red hay muchos recursos disponibles, especialmente el recurso información, pero a pesar de la
abundancia informativa no basta con "estirar la mano y tomar lo que se necesita"; eso "que se
necesita" hay que pedirlo según las reglas del juego. Naturalmente, las reglas pueden saltarse y la
transgresión electrónica en forma de expropiación de la información ha sido la actividad favorita de
los hackers (practicantes del libre acceso a la información) y los crackers (terroristas informáticos
con afán destructivo), pero en las redes, para transgredir, hay que saber.
La gama de servicios que ofrece Internet no es algo definitivamente cerrado. Nuevos servicios
pueden añadirse si se programan aplicaciones servidoras y clientes adecuadas. Y es posible que
otros servicios desaparezcan o queden muy restringidos, simplemente dejando de programar
aplicaciones servidoras y clientes de libre distribución (gratuitas). Se listan a continuación los
servicios más utilizados:
1. Servicios que manejan información previamente grabada:
1. Correo electrónico (e-mail): similar a la correspondencia.
2. News: similar a una discusión, no en tiempo real, en un grupo de afinidad.
3. FTP: transferencia de ficheros. Este servicio permite obtener la copia de un fichero, sin importar
lo que éste contiene. La transferencia de archivos se utiliza para obtener nuevos programas clientes
o servidores y ejecutarlos en la propia red.
4. Telnet: acceso remoto a otra máquina. Mediante este servicio se puede trabajar efectivamente en
otro ordenador (el ordenador de la empresa, de la facultad, etc.) desde un lugar remoto (por ejemplo
desde casa).
5. Archie, Verónica: búsqueda automatizada. Se utiliza para conocer la localización de un archivo
cuyo nombre o descripción se conoce.
6. Wais: búsqueda automatizada de contenido. Se utiliza para localizar archivos cuyo contenido se
conoce en parte.
2. Servicios de comunicación directa:
1. Talk: similar a una conversación telefónica pero sin sonido, de manera que los mensajes enviados
deben escribirse con el teclado, y los recibidos deben leerse en la pantalla.
2. IRC: similar a Talk pero múltiple.
3. Teleconferencia de audio: similar a una conversación telefónica múltiple con sonido.
4. Teleconferencia de vídeo: similar al videoteléfono en una conversación múltiple con imagen y
sonido.
5. Whiteboard: permite la generación de un documento escrito por parte de varios participantes
colectiva y simultáneamente.
6. Mud: juego en tiempo real con múltiples participantes.
No se ha incluido en esta lista el servicio probablemente más utilizado: aquello que se conoce
como navegar. La navegación en Internet se basa en el hecho de que tanto la información como los
servicios tienden a estar integrados en una única estructura. A causa de esta integración establecida
mediante múltiples enlaces y referencias, los servicios (modos de acceso), los menús (opciones de
acceso) y la información en sus múltiples codificaciones de texto, imagen, sonido, imagen en
movimiento o realidad virtual (acceso propiamente dicho) se organizan como una misma cosa,
denominada WWW (World Wide Web).
A diferencia de una búsqueda, en la que se sabe lo que se quiere encontrar y se utiliza un
procedimiento automático, la navegación sitúa al navegante en posición de protagonista de su
propio deambular. La navegación, efectuada a base de elecciones continuas e indeterminadas, es
una interactuación con la red mediante la cual el navegante no queda reducido a mero espectadorconsumidor del espectáculo telemático, sino que asume el papel de protagonista de su propia
aventura y virtualmente construye su propia historia. La posibilidad de navegar confiere a Internet
una componente simbólica, puesto que funciona como una puerta abierta a la posibilidad de nuevas
experiencias en un mundo inagotable de realidades virtuales que sin embargo conectan con las
subjetividades y crean realidades materiales. El hecho de que en muchas ocasiones la navegación
sea impracticable (lentitud, fallo en los enlaces, precio...) no es necesariamente un argumento contra
las espectativas que ofrece, de la misma manera que el aburrimiento que produce la televisión no
necesariamente conlleva dejar de verla.
Internet (como muchos otros) es un producto anónimo producido por una empresa social (sin patrón
concreto) y en cuya producción han participado muchos trabajadores que no han recibido por su
trabajo salario directo alguno. Este producto social, como se ha relatado más arriba, ha sido
posteriormente privatizado y apropiado por empresas concretas merced a determinaciones políticas,
o sea, de poder. Que sea un producto social del cual nadie se preocupa lo más mínimo por saber
quién fue su inventor, descubridor o constructor no significa que sea un producto autónomo o
neutro. Puesto que en el actual ciclo productivo el producto debe ser vendido mientras es fabricado,
y fabricado mientras es vendido, no pueden secuenciarse con nitidez los tiempos y lugares de la
producción, distribución, venta, consumo y reproducción. El trabajo se parece cada vez más a
aquello que consigue su objetivo en el propio realizarse y cuyo resultado es lo único que debe ser
controlado, o sea, la prestación de un servicio, aunque paradójicamente el salario se continúa
midiendo por el tiempo de trabajo puesto a disposición de la empresa concreta, y la relación salarial
continúa siendo la fuente del derecho a muchas de las prestaciones sociales: subsidio de desempleo,
viudedad, subsidio agrario, subsidio por enfermedad, jubilación... Pero la capacidad de trabajar
(ganas, necesidad, miedo, entusiasmo, aceptación, autoimplicación, adiestramiento...) no está dada
de una vez por todas, y como cualquier otro producto debe ser producida y producida, además,
continuamente. Su producción no puede ser una producción "en serie", sino que debe tener la
apariencia de una autoimplicación libre que permita a cada cual "construirse a sí mismo" pero
construirse, eso sí, para ser productivo. En este proceso de producción de la capacidad de trabajar
entra todo, y por supuesto entran actividades consideradas por "el sentido común" como no
productivas, tales como hacer el amor, conversar con un amigo o ver la televisión. Producir no
puede ser identificado con cansarse o con percibir un salario y, contradiciendo las tesis oficiales, lo
difícil dada la naturaleza del actual ciclo productivo esestar en paro, aunque evidentemente todas las
formas que reviste el trabajo no son igualmente penosas, insalubres, peligrosas, humillantes o
aburridas.
La actual manera de producir (llámese descentramiento de la actividad productiva, posfordismo,
productividad social...) precisa y produce redes: redes para hacer negocios, pero también para
producir capacidad de trabajo y, por supuesto, para enrolar fuerza de trabajo eludiendo la relación
salarial, la negociación colectiva y los límites legales del despido. Si la complejidad de las redes
sociales puede ser metida toda ella en una red telemática, si es posible (y deseado) dejar de producir
o, como alguien ha dicho en Internet, si la realidad sólo tiene píxels, ésa es la cuestión.
El Proyecto GNU/Linux:
el ‘general intellect’ en red
Los orígenes
El proyecto GNU (GNU's Not Unix, "GNU no es Unix") nació hacia 1983 de la mano de Richard
M. Stallman y la Free Software Foundation. Pretendía recuperar el espíritu de cooperación que
había en el mundillo de la contracultura hacker a mediados de los años setenta y que había sido
literalmente barrido con la entrada de las grandes corporaciones (IBM, Hewlett Packard...) en el
terreno de la informática personal. Hasta 1981 –año en que IBM lanza el primer ordenador personal
asesorado en cuanto al diseño y la funcionalidad por el ex hacker Bill Gates– las grandes
corporaciones informáticas habían despreciado la informática personal por no considerarla viable
comercialmente, y sólo el empeño militante de hackers y de aficionad@s a la electrónica había
conseguido llegar a materializar ordenadores personales totalmente artesanales. Durante los años
setenta, colectivos de hackers en el Sillicon Valley californiano promovían un uso político de la
informática personal, una especie decomputopía en la que cada persona podría disfrutar de un PC
conectado vía telefónica con l@s demás, participando así directamente en la vida ciudadana y en las
decisiones que atañían a la comunidad. En los entornos de hackers (BBS, revistas, colectivos...), la
política de la representación y la democracia parlamentaria como forma de articular lo social
quedaban en serio entredicho. Su modo de cooperar, de comunicarse el conocimiento, de
reapropiarse de la tecnología y de sabotear a las grandes compañías de telecomunicaciones (los
phone-phreakers enseñaban a pinchar el teléfono y a construir "cajas azules" con los que conectarse
al teléfono sin pagar, a la vez que realizaban sabotajes a Ma Bell) o informáticas (entrada y sabotaje
de grandes redes corporativas) no dejaba lugar a dudas sobre su planteamiento acerca del uso de las
nuevas tecnologías como "arma del pueblo". Para llevarlo a cabo, se basaban en lo barato de los
componentes con los que se construyen los microprocesadores y las memorias (el silicio es como la
arena y lo hay por todas partes) y en las posibilidades de comunicación horizontal y de
interactividad que ofrecía el modelo de red. Sin duda esta gente no andaba nada desencaminada y
anticiparon muchas cosas que hoy día nos resultan cotidianas, como el PC conectado a la línea del
teléfono y la propia red Internet.
Pero el modo en que se ha llegado a ello ha sido por una vía muy diferente a aquellos
planteamientos comunistas de los primeros hackers. Buena parte de ellos (Gates, Wozzniak, Jobs y
muchos otros) se convirtieron en prósperos empresarios, aprovechándose del saber acumulado
como hackers y de todo el terreno que habían ganado a las corporaciones que durante años les
dejaron el terreno libre. Transnacionales como Apple, Microsoft e incluso Intel tienen su origen en
el mundillo hacker californiano de los setenta. Cuando IBM por fin entra en el negocio en 1981 –no
sólo no inventa nada como se suele creer, sino que lo único que hace es subirse al carro a última
hora– supone el pistoletazo de salida para que todas las demás corporaciones informáticas
dedicadas hasta entonces a trabajar para el gran capital (bancos, militares e instituciones privadas
y/o estatales), se lancen a la carrera por la "informática personal". Pero el planteamiento,
evidentemente, dista mucho del que le daban aquellos primeros hackers al concepto de "ordenador
personal": se convierte pura y simplemente en un objeto de consumo caro y elitista. Por eso, a
mediados de los ochenta, había hackers –algunos supervivientes de los años setenta como Stallman
y otros jóvenes descontentos con el rumbo que adoptaba la informática personal– que se revelaron
contra ese estado de cosas. Nacía el proyecto GNU.
El proyecto GNU
El proyecto GNU surge como reacción frente a la imposición del software propietario, que impedía
la cooperación entre l@s usuari@s y fomentaba prácticas exclusivamente mercantilistas. El objetivo
de GNU es permitir a l@s usuari@s el usar un ordenador sin tener que renunciar a las ventajas que
le proporciona la tecnología digital y sin tener que renunciar al espíritu colaborador y constructivo
que se beneficia de estas ventajas. Es evidente que es una licencia, uncopyright, y no el propio
programa ni la tecnología digital lo que impide hacer libre uso de los bits y que son los fabricantes
de software propietario quienes –al distribuir los programas compilados y sin el código fuente,
cuando no protegidos contra la copia–, impiden "entender" el programa para poderlo estudiar,
mejorar, adaptar o portar según sus necesidades. El proyecto GNU aboga por la libertad para
estudiar cualquier programa y modificarlo de acuerdo a las propias necesidades; reclama también el
derecho a distribuir copias a quien se quiera y sin límite alguno y, por último, reclama la libertad de
toda la comunidad de usuari@s de mejorar el programa y distribuirlo de tal manera que se puedan
beneficiar todos los integrantes de la propia comunidad. A los programas que reúnen estos
requisitos se les denomina "free software" o "programas libres" y están protegidos por
el copyleft que se plasma en la GPL (Licencia Pública General). A diferencia del copyright, que
protege la propiedad frente al uso, el copyleft protege el uso libre frente a la propiedad e impide que
nadie se apropie o limite la libre circulación del saber.
Para poder plasmar toda la filosofía del free software, era requisito indispensable la construcción de
un sistema operativo libre. Todos los ordenadores necesitan un sistema operativo para funcionar. Si
no se dispone de un sistema operativo libre no se puede ni siquiera arrancar un ordenador sin usar
software propietario. De modo que GNU consiste tanto en la construcción de un sistema operativo
libre completo como en el proyecto cooperativo y non profit para desarrollarlo. GNU eligió como
sistema de partida a Unix por varias razones: sus características básicas lo hacen muy interesante
(multitarea, multiusuari@); estaba muy implantado entre l@s usuari@s desde hace muchos años y
ya existía para Unix un buen número de partes que eran free software y que podían de ese modo
reutilizarse.
A comienzos de los años noventa ya se disponía del armazón del sistema GNU pero faltaba una
parte básica: el núcleo del sistema operativo (técnicamente denominado kernel). Es en ese momento
–1991– cuando hace su aparición el estudiante finlandés Linus Torvalds que con 21 años se pone a
desarrollarlo en la Universidad de Helsinki. Linus y otros colaboradores realizaron el kernel, que
fue registrado bajo licencia GPL como Linux (contracción de Linus y Unix). De modo que el kernel
Linux combinado con el resto del sistema GNU constituyeron un sistema operativo libre completo
que popularmente (aunque algo impropiamente, pues el kernel es sólo una parte del sistema) se le
empezó a denominar Linux.
Linux
Hace aproximadamente cuatro años desde su aparición y Linux posee ya incontables usuari@s
(entre tres y ocho millones de máquinas) y colaboradores desinteresad@s en el proyecto de
desarrollo. Linux, en desarrollo permanente, no es obra de ninguna empresa –si acaso, de una
"empresa" colectiva– ni de nadie en concreto (Linus ha escrito sólo unas 50.000 líneas de código,
del más del millón que de momento tiene), es fruto de la cooperación a través de Internet, de hecho
es impensable sin Internet. Se distribuye gratuitamente a través de la red con el código fuente, que
permite que cualquiera con conocimientos de programación pueda estudiarlo, mejorarlo o adaptarlo
a sus necesidades, teniendo en cuenta que esas mejoras, cuando merecen la pena, pueden pasar al
conjunto del sistema. Como la construcción de las catedrales medievales, sin arquitecto, Linux va
componiéndose a base del trabajo y de la cooperación de un colectivo difuso de gente en todo el
mundo que en la mayoría de los casos ni siquiera se conoce personalmente pero que coordina un
trabajo muy complejo y delicado para mantener la unidad y la coherencia funcional del sistema.
Ningún sistema tiene semejante apoyo ni está tan documentado, ningún sistema crece y se
desarrolla a la velocidad en que lo hace Linux. Sólo hay que asomarse un poco a través de
lasnews de Internet a las comunidades de linuxer@s para ver el entusiasmo y la energía que
despiden y el espíritu cooperativo que les asiste.
Como sistema operativo, Linux probablemente es mejor que cualquiera de las versiones de
Windows (95 o NT). Pero no creo que se trate de comparar cosas que son incomparables (uno
apoyado por campañas de marketing multimillonarias a nivel mundial con otro sin apenas respaldo
comercial) ni que sea esta la discusión que nos interese en un entorno como el nuestro, que pretende
hacer un uso antagonista de la tecnología. Aunque Linux fuera peor, creo que habría que apostar por
él. Linux es algo más que un sistema operativo, es toda una forma de pensar y de crear que va más
allá de un simple desarrollo tecnológico (ver artículo adjunto: "Linux: el socialismo de la
programación"). Linux supone el máximo exponente de una filosofía non profit, antimercantilista:
el software no es más que un producto del conocimiento humano y como parte de ese conocimiento
debe ser compartido con l@s demás. Alejado de cualquier planteamiento comercial, GNU no cae en
la ingenuidad en un mundo ultramercantilizado (por eso se protege de los depredadores comerciales
con copyleft) pero tampoco entra en la guerra anti-Microsoft ni en el márketing fácil de convertir a
Linus Torvalds en un gurú a lo Bill Gates. Simplemente mira para otro lado y construye un sistema
muy superior técnicamente a Windows, no derrocha los recursos de la máquina y funciona
perfectamente en ordenadores desechados por obsoletos en entornos Microsoft. Y no se debe
cometer el error de valorar Linux únicamente por ser gratis, pues la gratuidad es a veces una
estrategia comercial más (un ejemplo, el navegador Explorer de Microsoft). Es importante que el
proyecto GNU siga para adelante porque es una potentísima línea de fuga del capital en un terreno
tan estratégico como es el del ordenador personal y porque es una creación colectiva y
autogestionada –puro general intellect o puesta en concierto de un saber social general– en el
corazón del mando capitalista, basado en la propiedad privada y en el control sobre el saber
colectivo.
Como cualquier sistema en desarrollo, Linux ofrece ciertas dificultades de uso a l@s neófit@s,
sobre todo porque hasta ahora no se ha dado prioridad al interfaz de usuario, sino al desarrollo de
herramientas que permitieran el propio desarrollo del sistema. Resulta un poco árido especialmente
a quien está habituad@ a que se lo den todo masticado, como es el caso de quien viene de las
últimas versiones de las ventanitas güindoseras desde las que se fomenta la ignorancia absoluta del
medio. Pero esta dificultad técnica no debería llevar a la acusación de Linux como sistema elitista
para hackers o para especialistas que sibilinamente se desliza desde entornos propietarios y que
alguna gente por inercia repite sin haber visto los últimos entornos de ventanas en Linux, bastante
funcionales e infinitamente más estables que cualquiera de las versiones Windows, con todas las
aplicaciones básicas (procesadores de texto, paquetes integrados como StarOffice, sonido y por
supuesto todo lo relacionado con las comunicaciones vía red). En cualquier caso, el esfuerzo creo
que merece la pena, no sólo desde un punto de vista técnico –Linux no se cuelga, no se
desconfigura, no tiene virus, está totalmente orientado a Internet, a la comunicación y a las redes, y
su interfaz no te trata como si fueras estúpid@–, sino político: es muchísima la gente que en el
entorno Linux se mueve con ideas políticas difusas y a veces contradictorias, sí, pero pergeñando
verdaderas prácticas antagonistas, cooperativas y anticapitalistas por la libre circulación del saber.
PGP
autodefensa digital
PGP (Pretty Good Privacy, "privacidad bastante buena"), "encriptación de clave pública para las
masas", es un pequeño programa de ordenador que sirve para cifrar y descifrar textos y archivos de
datos y para hacer firmas digitales mediante sistemas de criptografía. A nosotr@s nos va a servir
fundamentalmente para proteger los mensajes que enviamos a través del correo electrónico. Es
llamativo cómo nos relajamos con el uso del mail, escribiendo cosas que nunca contaríamos por
teléfono o por carta, como si fuese más seguro el ordenador que, por ejemplo, el teléfono. Y resulta
que es justo al contrario: pinchar el teléfono o abrir la correspondencia de modo masivo no es nada
sencillo (requiere alguien que escuche o que lea uno por uno) y, sin embargo, es tremendamente
fácil pinchar algún servidor a través de los que pasa el correo electrónico y leer un mensaje o, peor
aún, establecer un filtro automático de modo que se almacenen selectivamente aquellos mensajes
que cumplan una cierta condición (el remitente, cierta palabra, etc.). Lo hace la máquina, no
requiere intervención humana más que para visualizar el resultado del pinchazo.
Breve reseña histórica
La criptografía es un arte muy antiguo –aparece ya en los jeroglíficos egipcios y en textos
cuneiformes; los judíos la usaron desde Jeremías y también Julio César nos dejó su nombre
encriptado– usado para proteger el secreto de la correspondencia mediante escritura convencional.
El procedimiento más sencillo (el de Julio César por ejemplo) consiste en desplazar un número
constante cada letra del alfabeto –a por ejemplo se convierte en D,b en E, c en F, etc.– con lo que
resulta un texto ilegible para quien desconoce el método. Este método evidentemente es muy fácil
de descubrir, pero los antiguos usaron ya algoritmos de trasposición y sustitución de letras bastante
más complejos. Modernamente han sido los militares y los servicios secretos de los Estados quienes
más lo han desarrollado, inventando máquinas cifradoras (manuales o mecánicas) que permitían
utilizar con rapidez los métodos de sustitución o sistemas de códigos cifrados (los famosos
diccionarios de claves de las películas de espías). Los bancos también han estado últimamente muy
interesados en la criptografía como forma de evitar cualquier otra operación fraudulenta que no sea
las que ellos mismos realizan.
Con la introducción de los ordenadores y su formidable capacidad para el cálculo intensivo, se han
podido desarrollar y llevar a la práctica algoritmos extraordinariamente complejos, hasta el punto de
que se piensa que sólo el ensayo sucesivo de todas y cada una de las posibilidades (a esto se le
llama "ataque de fuerza bruta") podría llegar a "romper" (descrifrar) estos códigos. Eso ha hecho
que los antiguos métodos manuales hayan quedado muy desfasados y se consideren solamente
formas de camuflaje de textos y no verdaderos métodos de encriptación.
Desde sus orígenes, los sistemas informáticos de encriptación han estado en manos del poder
(gobiernos, ejército, bancos, corporaciones privadas), que iba ensayando algoritmos cada vez más
sofisticados aunque casi siempre se encontraban con un problema insoluble derivado de usar el
método de "clave secreta", con el que las partes que se quieren comunicar debían conocer
previamente la clave. En 1991 un programador que trabajaba para la NASA –Phil Zimmermann–
ante la perspectiva inminente de que se ilegalizara en Estados Unidos el uso libre –no controlado
por el Gobierno– de la criptografía decide hacer público el código fuente del PGP y ponerlo a
disposición de todo el mundo en Internet. Se armó un tremendo escándalo que le condujo a la cárcel
en 1993 acusado de exportar armas militares. Semejante estatus se le daba a un programa
informático: arma militar. El fiscal pedía varios años de cárcel y una multa elevadísima. Finalmente,
y gracias a una extraordinaria campaña a favor de su libertad realizada a nivel mundial a través de
Internet y de movilizaciones en la calle en Estados Unidos, Zimmermann salió libre de cargos y hoy
día cualquiera puede obtener versiones mejoradas de PGP en numerosos servidores de FTP de
Internet, aunque la legislación estadounidense mantiene un control penal para la importación y
exportación de PGP.
¿Qué es el PGP?
No voy a entrar en detalles técnicos, pero creo que sí es interesante estar familiarizad@ con el
modo de funcionamiento de PGP y su diferencia con otros sistemas de encriptación. El PGP usa un
sistema de clave pública. Como he mencionado más arriba, anteriormente los sistema de
encriptación más empleados –de clave secreta– precisaban que el/la remitente y el/la destinatari@
se comunicaran de algún modo dicha clave. La clave secreta servía para encriptar y para
desencriptar. Eso obligaba a que el intercambio de la clave debía realizarse por un "canal seguro"
(pues de otro modo puede caer en manos de quien no debe :-) y de nada iba a servir encriptar). Pero
resulta que si se dispone de un canal seguro no hace falta encriptar nada. Para solucionar este
problema y poder transferir la clave por canales no seguros o sin necesidad de hacerlo
personalmente, se ideó un sistema llamado de "clave pública", que básicamente consiste en crear
dos claves diferentes generadas a la vez, una para encriptar y otra desencriptar. Se consiguió crear
un algoritmo en que a partir de la clave de descifrado era imposible deducir la clave de cifrado con
lo cual se podía hacer pública esta última a cuanta más gente mejor (la "clave pública"). Eso
permitió masificar el uso de la encriptación al poderse usar canales no seguros para transferir la
clave sin miedo a que alguien la intercepte. El mensaje se encripta usando simultáneamente la clave
secreta del/la remitente y la clave pública del/la destinatari@. Para desencriptar se hará al revés:
el/la destinatari@ usará la clave pública del/la remitente y su clave secreta (la del/la destinatari@).
Se consigue así que cada mensaje únicamente pueda ser desencriptado por la persona a quien se lo
dirigimos hasta el punto de que, una vez encriptado, ni siquiera quien lo ha encriptado puede volver
a desencriptarlo: sólo a quien ha sido enviado puede hacerlo mediante su clave privada (más la
clave pública del remitente). Es como el anillo de Schazan, hacen falta las dos mitades de la llave, y
esa llave es siempre distinta porque es generada aleatoriamente mediante una frase secreta
(passphrase) que sólo necesita conocer el remitente. Eso convierte a un mensaje encriptado con PGP
en irrompible a no ser que se conozca la passphrase.
Otro uso muy importante del PGP –aunque creo que no para nosotr@s, sino más bien para
cuestiones legales y para transacciones comerciales– es la posibilidad de firmar digitalmente un
documento. Por ejemplo, puede interesar enviar un mensaje claro para que lo pueda leer cualquiera
pero queremos que llegue intacto, que nadie lo manipule y que sepamos con total seguridad que lo
ha escrito quien dice haberlo hecho. Es decir, la firma digital impide técnicamente falsificar un
mensaje o suplantar la personalidad de otr@ para enviar un mensaje. Si se ha manipulado en algún
momento, PGP avisa de ello.
Pero ¿por qué es tan importante el PGP?
Que un fiscal lo considerara un arma militar no fue una ida de olla. La dimensión política de PGP es
extraordinaria, se trata de una máquina insólita en nuestro tiempo. Asegura a cualquier persona que
sepa usar un ordenador la total privacidad de sus comunicaciones escritas a través de la red. Total
privacidad significa que nadie que no sea el destinatario del mensaje podrá de ningún modo leer su
contenido. Nadie significa nadie: ni la policía, ni todos los servicios de seguridad de todos los
Estados trabajando juntos. Nadie. Porque nadie ha conseguido romper PGP ni es previsible que lo
logre en un número muy significativo de años. Hasta hace poco, sistemas de blindaje tan poderosos
sólo estaban al alcance de los Estados. En cualquier parte del mundo, el Estado –a través de los
jueces o de la policía directamente– se reserva la posibilidad de intervenir la correspondencia o
pinchar el teléfono o registrar a la fuerza el domicilio de quien sea. Con PGP no se puede hacer. Es
insólito que una tecnología de inteligencia militar esté al alcance de cualquiera y es insólito que en
la era del Estado-control haya una parcela tan importante como la de la comunicación privada cuyo
control escape al Estado de modo tan sencillo y eficaz. Probablemente, se trata de la primera vez en
que la gente tiene semejante capacidad de defensa frente al poder estatal: la posibilidad real de
proteger sus comunicaciones de un modo seguro y de defenderse de la injerencia de la policía o de
los jueces. Por eso en varios países usar PGP es ilegal (Francia, Rusia, Irán, Irak, China...) e incluso
se paga con la cárcel o con el pelotón de fusilamiento. En el Estado español, por suerte, todavía no
hay legislación al respecto y se puede encriptar tranquilamente. Pero hay que tener cuidado de no
enviar un mensaje encriptado con PGP a países donde podríamos comprometer gravemente al/la
destinatari@ (hay información específica en Internet sobre la situación de las legislaciones en cada
país sobre criptografía).
PGP además es free software bajo licencia copyleft registrada por su autor Phil Zimmermann. Es
decir, no tiene copyright, pertenece a la comunidad de usuari@s y nadie se lo puede apropiar. Puede
ser copiado y distribuido libremente, puede ser estudiado para mejorarlo y para comprobar que no
tiene errores ni "puertas traseras". Al ser público el código fuente de PGP, hay miles de usuari@s
que durante años lo están poniendo a prueba y revisando sus algoritmos para garantizar que no
contiene "puertas traseras" (trucos que un programador puede implementar en el código interno del
PGP para "romperlo" sin necesidad de conocer la clave secreta y sin que nadie lo advierta). Además
PGP funciona en casi todas las plataformas, no sólo en la de las ventanitas.
En Estados Unidos –que sirve como avancilla y ejemplo a otros países a la hora de establecer
políticas restrictivas– el contraataque del Gobierno ha consistido en implementar el chip Clipper. El
chip Clipper es un sistema de encriptación que avala el gobierno para que lo vayan incluyendo los
fabricantes de dispositivos digitales de comunicaciones (modems, fax, teléfonos, etc.). Lo vende
como un sistema que va a garantizar la privacidad de l@s ciudadan@s en sus comunicaciones, pero,
eso sí, el gobierno, a través de los jueces, guarda en depósito la llave de cada clave secreta que se
genere con el chip Clipper. Es decir, que en caso de necesidad (como con la correspondencia
convencional, el domicilio, etc.) puede violar la comunicación privada de cualquiera que use ese
chip. De momento, usar el chip Clipper es voluntario, pero el paso siguiente es muy fácil preverlo:
ilegalizar cualquier sistema de encriptación que no sea Clipper y obligar a implementarlo en
exclusiva. El algoritmo que usa Clipper es secreto, lo cual no asegura su eficacia (sólo poniéndolo a
prueba masivamente, como ocurre con PGP, se puede asegurar con un sistema es seguro) y, sobre
todo, no garantiza en absoluto que no tenga "puertas traseras" que permitan a la policía leer las
comunicaciones sin necesidad de pasar por una orden judicial.
Modo de usarlo
Para instalar y configurar PGP, hay un manual en castellano en http://linux.nodo50.org/seguridad y
el propio programa trae una ayuda en línea en castellano. Aquí sólo me voy a referir a cómo usarlo
desde el ordenador del Laboratorio.
1. Se pide la passphrase a alguien del Área Telemática.
2. Escribimos el mensaje en formato texto (con el word o con la propia ventana de correo,
salvándolo como fichero de texto *.txt y copiándolo en el directorio c:\pgp)
2. Abrimos una ventana del DOS y nos vamos al directorio pgp.
tecleamos cd c:\pgp
3. Tecleamos el siguiente comando para enviárselo, por ejemplo a Marta
pgp -e mifichero.txt marta
o bien si quiero enviarlo a varias personas:
pgp -e mifichero.txt marta david alicia
Esto genera un fichero encriptado que ya podemos enviar pegándolo a un mensaje de correo.
(Se supone que a quien le enviamos el mensaje está en nuestro anillo de claves públicas. Si no, la
persona a quien queremos mandarle el mensaje encriptado debe enviarnos antes su clave pública (o
decirnos de qué servidor pillarla) e incluirla en nuestro anillo. Hay servidores de claves públicas que
se las intercambian entre sí. En http://linux.nodo50.org/seguridad están las claves públicas del
Nodo50 y de Ipanex.)
Para incluir la clave pública de alguien en nuestro anillo tecleamos:
pgp -ka marta.asc
Para desencriptar un fichero:
pgp nombre_de_fichero_cifrado
A modo de conclusión
A parte de PGP, hay otras técnicas interesantes para proteger la confidencialidad del correo como
son los remailer anónimos, servidores que permiten reenviar un mensaje de modo que quien lo
recibe no tenga modo de saber quién se lo ha enviado. Estos servidores no está claro que vayan a
garantizar el anonimato en toda circunstancia, por lo que hay que ser precavid@. Pero la cuestión
de los remailer anónimos constituye un tema en sí mismo que podremos tratar en otra ocasión.
El PGP, como la red Internet y con los propios ordenadores personales, tienen su origen en una
extraña y anómala confluencia de intereses militares y/o comerciales, junto a prácticas antagonistas
y de resistencia antiautoritaria. Podemos oír hablar de PGP a responsables de seguridad de
empresas, o como forma de proteger copyrights y, al tiempo, constituye una herramienta única y
alcance de tod@s para protegernos de esos mismos que tratan de desarrollar formas de control y
dominio cada vez más sofisticados.
Kevin Mitnick lleva en prisión preventiva desde el 15 de febrero del 95. Está acusado de haberse
hecho pasar por otro en una conversación telefónica y haber conseguido así software propiedad de
las mayores compañías de telefonía móvil. De ninguna manera Kevin ha sido acusado de intentar
vender este software, todos los inidicios apuntan a que él simplemente estaba interesado en ver
cómo funcionaba y ver si había agujeros de seguridad intencionados que podrían afectar a los
usuari@s de la telefonía móvil. Las compañías respondieron a estó pidiendo cientos de millones de
dólares cuando lo único que Kevin hizo - incluso atendiendo a la instrucción del caso - es echar un
ojo a ese software.
Durante estos 4 años, a Kevin sólo se le ha permitido recibir visitas de su más cercana familia y de
sus abogad@s.
El 14 de Junio recibirá la sentencia del Juzgado Ferderal de los Angeles, existen dos posibilidades,
que el juez le condene a seguir en prisión o que definitivamente le dejen en libertad. Una vez
terminada la condena, durante los tres años siguientes, las autoridades quieren imponerle unas
restricciones draconianas. No le quieren dejar trabajar en ningún curro relacionado con los
ordenadores y la informática (¿qué trabajos hay hoy en día en los que no se use el ordenador en
algún momento?), no va a poder navegar por la web, ni recibir ni mandar e-mails, pero lo que es
más alucinante, no va a poder contar su verisón de la historia y ni siquiera hablar de
ordenadores con nadie.
Difunde esta información!! » www.freekevin.com
[Traducción libre del flyer de la campaña]
Para el día 4 de Junio se han convocado manifestaciones frente a la embajada yanqui en numerosos
sitios del planeta para pedir la libertad de Kevin. Para más info -> http://www.2600.com/demo/index.html
El Manifiesto Hacker
Hoy han cogido a otro, aparece en todos los periódicos. "Joven arrestado por delito informático",
"hacker arrestado por irrumpir en un sistema bancario". "Malditos críos. Son todos iguales". ¿Pero
pueden, con su psicología barata y su cerebro de los años cincuenta, siquiera echar un vistazo a lo
que hay detrás de los ojos de un hacker? ¿Se han parado alguna vez a pensar qué es lo que les hace
comportarse así, qué les ha convertido en lo que son? Yo soy un hacker, entre en mi mundo. Mi
mundo comienza en el colegio. Soy más listo que el resto de mis compañeros, lo que enseñan me
parece muy aburrido. "Malditos profesores. Son todos iguales". Puedo estar en el colegio o un
instituto. Les he oído explicar cientos de veces cómo se reducen las fracciones. Todo eso ya lo
entiendo. "No, Sr. Smith, no he escrito mi trabajo. Lo tengo guardado en la cabeza". "Malditos
críos. Seguro que lo ha copiado. Son todos iguales". Hoy he descubierto algo. Un ordenador. Un
momento, esto mola. Hace lo que quiero que haga. Si comete errores, es porque yo le he dicho que
lo haga. No porque yo no le guste, me tenga miedo, piense que soy un listillo o no le guste ni
enseñar ni estar aquí. Malditos críos. A todo lo que se dedican es a jugar. Son todos iguales.
Entonces ocurre algo... se abre una puerta a un nuevo mundo... todo a través de la línea telefónica,
como la heroína a través de las venas, se emana un pulso electrónico, buscaba un refugio ante las
incompetencias de todos los días... y me encuentro con un teclado. "Es esto... aquí pertenezco... ".
Conozco a todo mundo... aunque nunca me haya cruzado con ellos, les dirigiese la palabra o
escuchase su voz... los conozco a todos... malditos críos. Ya está enganchado otra vez al teléfono.
Son todos iguales... puedes apostar lo quieras a que son todos iguales... les das la mano y se toman
el brazo... y se quejan de que se lo damos todo tan masticado que cuando lo reciben ya ni siquiera
tiene sabor. O nos gobiernan los sádicos o nos ignoran los apáticos. Aquellos que tienen algo que
enseñar buscan desesperadamente alumnos que quieran aprender, pero es como encontrar una aguja
en un pajar. Este mundo es nuestro... el mundo de los electrones y los interruptores, la belleza del
baudio. Utilizamos un servicio ya existente, sin pagar por eso que podrían haber sido más barato si
no fuese por esos especuladores. Y nos llamáis delincuentes. Exploramos... y nos llamáis
delincuentes. Buscamos ampliar nuestros conocimientos... y nos llamáis delincuentes. No
diferenciamos el color de la piel, ni la nacionalidad, ni la religión... y vosotros nos llamáis
delincuentes. Construís bombas atómicas, hacéis la guerra, asesináis, estafáis al país y nos mentís
tratando de hacernos creer que sois buenos, y aún nos tratáis de delincuentes. Sí, soy un delincuente.
Mi delito es la curiosidad. Mi delito es juzgar a la gente por lo que dice y por lo que piensa, no por
lo que parece. Mi delito es ser más inteligente que vosotros, algo que nunca me perdonaréis. Soy un
hacker, y éste es mi manifiesto. Podéis eliminar a algunos de nosotros, pero no a todos... después de
todo, somos todos iguales.
Este es el último artículo de El Mentor.
Por qué Nodo50 ha dejado de interesarme
by Marga
Estas líneas pretenden ser una crítica de Nodo50. A más de un año desde que unas pocas personas
de Madrid, todas ellas miembros de Nodo50 y vinculadas a los centros sociales okupados, nos
juntáramos con gente de Barcelona para discutir la posibilidad de conectar a Internet un servidor
bajo el nombre sindominio.net en cooperación con Nodo50, las relaciones entre ambos proyectos
han derivado hacia una hostilidad manifiesta que ha supuesto de hecho la ruptura de la asamblea de
Nodo50 y el abandono forzoso de Nodo50 por parte de la gente de SinDominio. Después de año y
medio participando en Nodo50 y tras seis meses de trabajo asalariado en tareas técnicas, que he
debido abandonar a causa de las tensiones entre ambos proyectos y de la falta de confianza de
Nodo50 hacia mí, debo afrontar ahora la posibilidad de que Nodo50, en represalia y utilizando el
trabajo remunerado como una prebenda, vete mis posibilidades de trabajo en sus áreas de
influencia, tales como la CONGDE (Coordinadora de ONGs para el Desarrollo).
Mi propia situación, junto al sufrimiento con que otros compañeros están viviendo esta ruptura, me
plantea la tesitura de: o bien olvidar lo ocurrido, borrón y cuenta nueva, cada quien por su camino y
aquí no pasa nada, o bien dar una dimensión pública y crítica a los desacuerdos entre Nodo50 y
SinDominio.
Este dilema no es una tontería pues, una vez abandonadas las viejas formas de hacer política, creo
firmemente que de nada sirven las cosas (ni los textos) que se hacen en contra de algo y que sólo
cuenta lo que se hace a favor.
Entonces ¿por qué debería yo explicar a gente que está satisfecha con Nodo50 mis problemas? ¿por
qué debería hablar a sabiendas de que lo que diga puede producir enemistad, desconfianza o
desafecto? ¿para qué crear problemas?
Sin embargo, la manera como Nodo50 ha expulsado SinDominio, al igual que un organismo
expulsa un cuerpo extraño, utilizando prácticas de aparato a la vieja usanza que anulan la
posibilidad de construir autonomonía (pues ya sabemos lo que ocurre cuando un aparato actúa como
tal), abre una reflexión muy rica en determinaciones, no sólo porque ambos proyectos están
atravesados por cuestiones tan interesantes como la tecnología, el trabajo, la militancia, la
autoempresarialidad, el mercado, la autonomía, la visibilidad, la identidad o la virtualidad, sino
porque se plantea también la actualidad de la crítica (la crítica de Nodo50, en este caso), la manera
de construir y también de quebrar nuestros proyectos, las prisiones en las que todas las formas de
esperanza nos encierran y, en definitiva, las formas de hacer autonomía en sociedades mediadas por
la tecnología.
Al criticar un proyecto en el que he participado y, por lo tanto, confiado, no pretendo construirme
como víctima explicando una historia de malos contra buenos (plantilla de casi todas nuestras
historias), sino narrar cómo una maraña de sucesivas decisiones, muchas de ellas consideradas en su
momento como poco relevantes, van constriñendo las posibilidades de un proyecto que en sus
inicios estaba por determinar.
Así pues, estas líneas pretenden ser una crítica de Nodo50, pero una crítica a favor: a favor de las
ganas de crear, del placer de hacerlo junto con otra gente en el ciberespacio y en conexión con las
máquinas y, sobre todo, de hacerlo sin esperar nada.
Por qué Nodo50 ha dejado de interesarme
by Marga
El nacimiento de Nodo50
El origen de Nodo50 se remonta a 1993, cuando la campaña "50 Años Bastan" organizada contra las
instituciones de Bretton Woods (Fondo Monetario Internacional y Banco Mundial) decidió dotarse
de una infraestructura telemática como parte del desarrollo de las comunicaciones de la campaña.
En esa época, el desarrollo de la telemática antagonista en España se reducía a unas pocas BBSs
mantenidas personalmente por susSysOps y conectadas a otras mediante el sistema FidoNet.
FidoNet proporcionaba un sistema de intercambio de mensajes de correo electrónico y de noticias
posible gracias a conexiones no permanentes entre sus nodos.
Siendo la ONG SODePAZ quien asumió el área de comunicaciones de la campaña, y a falta de otra
gente que quisiera trabajar en ello, se apoyó en la experiencia de una de esas BBSs alojada en
Madrid (Revolware) para, junto con su SysOp, implementar una BBS con tecnología UUCP sobre
el sistema DeskView conectada en modo no permanente a la red GreenNet. Esta BBS recibió el
nombre de Nodo50.
Para 1993 el desarrollo de las BBSs en España estaba en manos de gente aficionada a la telemática,
pero muy desvinculada de colectivos de acción política, incluso de aquellos colectivos que
trabajaban en temas de contrainformación. La propia BBS Revolware, a la que Nodo50 debe el
lema telemática antagonista y que ahora combina con telemática solidaria y/o telemática alternativa,
había sido ofrecida por su SysOp a la Agencia UPA (colectivo de Madrid dedicado a la
contrainformación) para que ésta asumiera su gestión, ofrecimiento que fue rechazado. Así pues,
hay que reconocer a la campaña "50 Años Bastan" el mérito de haber inaugurado la primera
infraestructura telecomunicativa de gestión colectiva y abiertamente política en España, al tiempo
que hay que notar también los límites de este proyecto pues, una vez finalizada la campaña, los
principales grupos organizadores con capacidad para mantener Nodo50 renunciaron a ello, siendo
entonces cuando SODePAZ asumió su continuidad, y forzosamente también una especie de tutela.
No es el momento de valorar los pros y contras de la campaña como forma de intervención, pero no
cabe duda de que Nodo50 quedó empapado, como no podía ser de otra manera, por esa forma de
intervención. Debemos a la campaña la obtención de recursos económicos (con un superávit de
varios millones de pesetas), que permitieron liberar gente para trabajar en la misma campaña e,
indirectamente, fortalecer los grupos que la organizaban; también le debemos la financiación de
recursos, la resonancia a nivel mundial y la vinculación de Nodo50 al punto de vista sobre las
relaciones Norte-Sur defendido por la campaña.
Pero la ambivalencia de una campaña de este tipo en lo que a los procesos de autoorganización se
refiere dejó a Nodo50 en la ambigua situación de ser un recurso utilizado colectivamente en
especial por ONGs, que sí apostaron abiertamente por la comunicación telemática, pero bajo una
gestión tutelada que lo despotenciaba como proyecto autónomo.
La conexión de Nodo50 a Internet
A mediados de los noventa, el acceso permanente a Internet estaba prácticamente limitado a las
instituciones académicas.
Para la minoría de gente que utilizábamos la telemática, lo habitual era conectar con más o menos
frecuencia con alguna BBS para intercambiar correo, leer noticias o descargar ficheros. La conexión
requería disponer de un módem y marcar el número de teléfono de la BBS de destino. Todavía
recuerdo cómo para conectar con la ECN italiana, red de BBSs dedicadas a la telemática
antagonista, establecía conexión con alguno de sus nodos mediante una llamada telefónica
¡internacional!, sin que por aquel entonces pudiera imaginar otra manera de hacerlo. En el entorno
de las BBSs el problema de la conectividad no existía como tal, pero la cosa cambió con el
advenimiento de Internet.
La conexión de Nodo50 con Internet tuvo lugar durante el verano de 1996, poco después de la
implantación de Infovía por parte de Telefónica. Para esa época, el propio desarrollo del capital
empezó a asumir las telecomunicaciones como un mercado que en su segmento central quedaría
controlado por el monopolio Telefónica, mientras que se abriría un espacio en sus segmentos
marginales para el boom de pequeñas empresas, que venderían conexiones a Internet. Telefónica
desarrolló la tecnología Infovía para resolver dos problemas que limitaban el crecimiento del
mercado: por una parte permitiría la conexión a Internet mediante llamada telefónica local a través
de un número único (el memorable 055); por otra parte permitiría a las empresas vendedoras de
conexión (llamadas "proveedores de acceso") la posibilidad de múltiples conexiones a través de un
solo hilo. Infovía se imponía como una tecnología intermediaria entre el cliente que compraba
conexión a Internet y la empresa que se la vendía: en términos más técnicos, una pasarela. Así pues,
Telefónica controlaba los dos extremos del negocio, pero facilitaba enormemente el desarrollo y la
gestión de un servidor de conexión y con ello posibilitaba el boom de los proveedores de acceso a
Internet (figura casi desconocida en el resto del mundo), que a partir de entonces asumirían el
desarrollo del mercado minorista de las telecomunicaciones y todo lo que ello conlleva,
especialmente las tareas de extender el mercado hasta masificarlo y, sobre todo, de asistir a una
clientela poco adiestrada en las prácticas telemáticas.
El asunto de la conectividad
Cuando, en el verano de 1996, Nodo50 dejó de ser una BBS para ser un servidor en Internet, debió
plantearse el problema de si, además de los servicios propios de Internet (correo electrónico, web,
etc.) debía también constituirse en proveedor de acceso.
En la manera como percibimos Internet en el Estado español parece obvio que ofrecer servicios y
proveer de acceso son una misma cosa. Sin embargo, ya para entonces había otras experiencias que,
en el ámbito de la telemática antagonista, habían optado por separar ambas ofertas. Tal es el caso de
la ECN italiana, cuyos nodos dejaron de ser BBSs para convertirse en proveedores de servicios
(correo electrónico, web, etc.) que no proveen de acceso a Internet, acceso que quienes frecuentan
la ECN deben conseguir por otros medios (la empresa, la universidad, los servidores
comerciales...).
Es sabido que Nodo50-SODePAZ conocía de primera mano la experiencia de la ECN italiana, a
pesar de lo cual optó por ofrecer la conexión como uno de sus productos y quizás como el mejor de
ellos pues el sistema bajo el que se ha desarrollado Internet nos ha acostumbrado a pagar la
conexión mientras que los servicios propios de la red (correo electrónico, web, etc.) los
consideramos gratuitos.
A partir del momento en que Nodo50, en lo referente a conectividad, empezó a ofertar lo que otras
empresas estaban comercializando, entrando de esa manera en un mercado en el que de algún modo
debía competir, se produjo la insólita situación de que un proyecto militante ofrecía exactamente lo
mismo que otras empresas estaban vendiendo y que, por tanto, se podía adquirir en el mercado
mediante una relación estrictamente mercantil (repito: en lo referente a la conectividad).
El motivo por el cual Nodo50 valoró la necesidad de ofrecerse como proveedor de acceso para sus
usuarios/as se presta a interpretaciones. Es posible que Nodo50-SODePAZ estuviera influido por el
punto de vista sobre los desequilibrios entre Norte-Surdesarrollado por la campaña "50 Años
Bastan", así como por muchas otras ONGs usuarias de Nodo50. Desde ese punto de vista, las
estrategias de las multinacionales que controlan el mercado de la telefonía chocan con las
necesidades del Sur y con las economías más pobres de los países no industrializados. El simple
acceso a una línea telefónica está negado para la gran mayoría de la población, y por parte de las
ONGs para el Desarrollo se considera de gran valor estratégico que los desequilibrios entre Norte y
Sur disminuyan lo más posible en lo que respecta a conectividad y telecomunicaciones.
Es cierto que sin conexión no hay Internet, y que la accesibilidad y el precio de la conexión están
controlados por las multinacionales telefónicas en situaciones en las que, por ejemplo, una llamada
telefónica por parte de un campesino puede suponer su capacidad para negociar la venta de su
cosecha con unos precios u otros (pensemos, otro ejemplo, lo que puede suponer la conectividad a
Internet en los campamentos saharauis). Pero mientras en el Sur se imponen políticas que restringen
el acceso masivo a la información y a la comunicación y, por extensión, a Internet, en el Norte es el
propio desarrollo del capital el que está interesado en que todo el mundo tenga conectividad: la
conectividad universal.
Parece que, mientras la ECN asumió un punto de vista de país industrializado, dejando que el
propio mercado asumiera el marrón de la conexión, Nodo50-SODePAZ asumió un punto de vista
más cercano al Sur, volcando todos sus esfuerzos, especialmente hasta otoño de 1998, en la
conectividad.
La conectividad gratuita
En el momento de redactar estas líneas (verano de 1999), una vez liberalizado el mercado de las
comunicaciones, las operadoras telefónicas han establecido una batalla por el mercado de las
llamadas locales consistente en ofrecer conectividad gratuita a Internet (a cambio, claro está, de
obtener buenos beneficios por la facturación de las llamadas). Ante la paradójica situación de que el
propio mercado ofrezca gratis lo que desde hace años un proyecto militante ha intentado potenciar:
la conectividad para todo el mundo, la reacción de Nodo50 se mueve entre la perplejidad ante el
hecho de que sea el propio mercado el que haga realidad nuestros proyectos, y el patetismo al
constatar que aquello en lo que ha volcado tanto esfuerzo queda desvalorizado precisamente al
hacerse universal.
Quizás por eso, lejos de celebrar la conectividad universal como un derecho de ciudadanía, asume
el punto de vista del pequeño comerciante que ve tambalearse su cuota de mercado, cosa que resulta
inexplicable si tenemos en cuenta que Nodo50 es un proyecto militante y que, por ser otra cosa, está
a salvo de los procesos dumping que desencadenan estas ofertas de gratuidad. ¿Quién, si no son los
servidores como Nodo50, pueden invitar a sus usuarios/as a utilizar masivamente las conexiones
gratuitas y llevar hasta el final esta maniobra del mercado exigiendo que la publicidad se haga
efectiva y que todo el mundo dispongamos de conexiones gratuitas y de calidad ¡ya!?
Por el contrario, lo que ha hecho Nodo50 ha sido alertar a sus usuarios/as de los posibles engaños
que se esconden tras estas ofertas[1]: concentración del mercado en reducidos y poderosos núcleos
del poder ----económico (como si esa concentración dependiera de que paguemos o no la conexión)
y falta de calidad en esas conexiones (insinuando que quien pague podrá contratar una conexión de
calidad y quien no pague no).
Pero quizás lo más significativo sea el llamamiento a "dar una batalla en la concentración a través
de poderosos y sugerentes portales que aglutinen recursos políticos alternativos", poniendo así en
circulación un discurso sobre la unidad basado en el miedo y absolutamente contrario a lo que más
nos gusta de Internet: que es un espacio para la distribución descentralizada, la copia y la
proliferación, y no para la centralización ni la aglutinación de poderosos recursos, por más
alternativos que éstos sean.
Continua --»
Notas
[1] El 15 de junio de 1999 Nodo50 envió a sus usuarios/as un correo electrónico que, con el asunto
"URGENTE: Aviso a navegantes...", valora la situación creada por la gratuidad en las conexiones.
No he encontrado el texto de ese correo en la web de Nodo50.
[subir al texto]
Por qué Nodo50 ha dejado de interesarme
by Marga
Por cada mil palabras enviadas desde el norte…
La gestación de Nodo50 (1993/94) coincidió con el desarrollo de otros proyectos similares, todos
ellos con el mismo referente: la cooperación Norte-Sur. IEPALA en Madrid (comprometida con la
Red del Tercer Mundo) Pangea en Barcelona (respaldada por la federación de entidades
Comunicació per la Cooperació), Altercom en Bilbao, Eusnet en Iruña... iniciativas todas ellas bajo
las que latía la conocida consigna "Por cada mil palabras enviadas desde el Norte, el Sur sólo
devuelve diez". Considerando que la comunicación es poder y que las posibilidades de comunicar
están desigualmente distribuidas, la propuesta de estos proyectos era militar en pro de la
conectividad fácil y barata para garantizar la diversidad y la libertad de expresión, especialmente
allí donde los gobiernos, a través del gran capital, imponen políticas represivas contra el uso libre de
la información.
Debemos reconocer a las militancias (o burocracias) de las ONGs el valor de haber apostado desde
el primer momento por un uso intensivo, agrupado y eficaz de las nuevas tecnologías
comunicativas, en tiempos en los que los colectivos dedicados a la acción política, incluso los que
priorizaban la contrainformación, carecían de iniciativas orientadas a construir una infraestructura
de comunicaciones autónoma.
Para comprender este fenómeno, por otra parte inexplicable, quizás deberíamos rememorar el
paisaje político y social que una transición política desde la dictadura hasta la democracia (reforma
sin ruptura) y diez años de gobierno socialista y de entrega masiva de la militancia a los brazos de la
política institucional habían dibujado.
Para 1992 (año en el que el número de voluntarios olímpicos en Barcelona superó con creces el
número de militantes de todas las causas juntas) ya casi nadie creía en la posibilidad de una
transformación social inminente y colectiva y, siendo que los grandes relatos habían caído (quizás
nuestro último pequeño "gran" relato fue, en 1986, el referéndum contra la OTAN), se abría la
disyuntiva de, o bien profundizar un nihilismo activo (eso que mis amigos llaman resistirse al poder
sin esperar nada) o bien reconstruir pequeños relatos dadores de sentido (lo pequeño es bello).
Una gran parte de la militancia de los comités de apoyo a las revoluciones del Sur se habían
volcado, como mal menor, en la construcción de ONGs para la cooperación. Otra parte de la
militancia izquierdista se había refugiado en el relato de la alienación (la democracia ha engañado a
todo el mundo, menos a mí y a mi pequeño grupo), con el corolario de que las nuevas tecnologías
alimentan esta alienación. Los colectivos (muchos de ellos individuales) que experimentaban en las
nuevas formas de hacer política empleaban todas sus energías en llevar la política a lo cotidiano (lo
cotidiano corpóreo y presencial), multiplicando las microprácticas de liberación que proliferaban en
un espacio metropolitano difuso. ¿Quién estaba en condiciones de plantearse un desembarco en el
ciberespacio? Es posible que las ONGs, al haber negociado con la realidad en términos más
posibilistas, estuvieran menos problematizadas que otro tipo de colectivos más radicales en cuanto a
la utilización de las nuevas tecnologías comunicativas, al tiempo que estaban también menos
predispuestas a emparentar en modo no instrumental con esas tecnologías.
La constitución de IPANEX
En octubre de 1994, GreenNet convocó a los diferentes proyectos de telemática alternativa en el
Estado español a una reunión (a la que también asisitió alguien de la ECN, concretamente de Radio
Sherwood) con la propuesta de que éstos se federaran en una estructura cooperativa. GreenNet era
(y es) un servidor telemático sin ánimo de lucro dedicado al pacifismo, derechos humanos, medio
ambiente, etc. responsable de coordinar los nodos de la APC en Europa. A su vez,
la APC (Association for Progressive Communications), constituida en el verano de 1990 por siete
redes alternativas (NordNet en Suecia, Web en Canadá, AlterNex en Brasil, Nicarao en Nicaragua,
Pegasus en Australia, IGC en EEUU y GreenNet en Inglaterra) y que para 1994 contaba con
bastantes miembros más, era sin duda el punto de referencia para los proyectos de telemática
solidaria y/o alternativa en España, como lo avala el hecho de que Nodo50, entre otros, acudiera a
GreenNet desde el primer momento a fin de recabar apoyo técnico y político para su puesta en
marcha.
La propuesta organizativa de la APC consistía en aceptar un solo nodo miembro por Estado, así que
las distintas iniciativas del Estado español recogieron el envite de GreenNet y acordaron federarse
en IPANEX (acrónimo de Iepala, Pangea, Altercom, Nodo50, Eusnet, y Xarxaneta), cuyo proceso
de constitución y federación en la APC concluyó a mediados de 1997, habiéndose retirado del
proyecto Eurosur-Iepala y Altercom.
Cabe destacar que en pleno proceso de constitución de IPANEX se produjo la contratación por parte
de estos nodos del servicio de Infovía, contratación cuyos costes superaban ampliamente la
financiación de una BBS, y que suscitó la preocupación por la viabilidad económica e introdujo la
discusión sobre la idoneidad de mantener un único nodo físico en el Estado español, (una sola
máquina) que albergara a los distintos proyectos como nodos virtuales. La heterogeneidad de
planteamientos se manifestó en el hecho de que de los cuatro nodos que hoy por hoy forman
IPANEX, cada uno de ellos represente un modelo organizativo y de financiación distinto: Pangea
cuenta con el soporte de la Universistat Politècnica de Catalunya y su relación con las instituciones
es abierta; Eusnet ha creado la empresa cooperativa Izartel que presta (y factura) servicios externos
y que, a su vez, se encarga del servicio técnico de Eusnet; Xarxaneta, por carecer de mayores
posibilidades, se aloja físicamente en la máquina de Eusnet a cambio de un alquiler; y Nodo50 ha
quedado en ser uno de los proyectos de SODePAZ, bajo cuya tutela se mantiene.
La cooperación entre los nodos de IPANEX se reduce a un pacto de no agresión "firmado" tras
llegar a unos acuerdos territoriales que reparten el Estado español en zonas de hegemonía para cada
uno de sus nodos. Mediante esos acuerdos territoriales cada nodo se compromete a no publicitarse
fuera de su zona, a comunicar a los colectivos que soliciten un alta desde fuera de su zona la
existencia del nodo preferencial para esa zona, y a comunicar al nodo "propietario" de una zona
todas las altas de colectivos que otro nodo realice en una zona que no sea la suya. Esos acuerdos de
territorialidad, aunque cumplidos a trancas y barrancas y continua fuente de conflictos en IPANEX,
dan idea de cómo se sobreponen prácticas absolutamente contrarias a la manera de ser de Internet,
un espacio en el que las fronteras territoriales sencillamente han sido sobrepasadas.
Los aberrantes acuerdos de territorialidad de IPANEX, incluso si se incumplen, son significativos
por varias cuestiones: manifiestan cómo la cooperación no pasa de ser una necesidad burocrática
impuesta por la APC; muestran también cómo la preocupación por la financiación se resuelve en
términos de cuotas de mercado; y por último desvelan la percepción que estos proyectos tienen de
Internet propiciando un uso meramente instrumental y competitivo que no comprende qué cosa es el
ciberespacio y que, por tanto, no lo ve como una expresión de la inteligencia colectiva ni se sitúa
dentro de los procesos de construcción de las comunidades virtuales en su especificidad.
La federación en la APC
Para valorar el fenómeno IPANEX merece la pena detenerse un momento a pormenorizar lo que la
pertenencia a una red tal como la APC supone. Antes de Internet, las BBSs permanecían aisladas
unas de otras la mayor parte del tiempo, y unas pocas horas al día se conectaban entre sí mediante
llamadas de teléfono casi siempre interprovinciales y a veces internacionales a fin de intercambiar
correo, noticias o ficheros. La decisión de conectarse entre sí respondía al criterio del SysOp, que
habilitaba las acciones necesarias para que periódicamente se produjese la interconexión. Algunas
BBSs decidían permanecer aisladas, mientras que otras se conectaban entre sí formando redes
(redes débilmente conectadas, pero redes al fin). Está claro que con una conectividad de este tipo el
intercambio, por ejemplo de correo electrónico, entre usuarios/as de dos BBSs distintas sólo podía
producirse si los SysOps habían decidido interconectarlas.
Con Internet este panorama cambia radicalmente. La conexión entre nodos de Internet es total, las
veinticuatro horas del día y de todos con todos. Cuando un nodo se conecta a Internet se conecta a
todo el resto de nodos por igual. ¿Qué sentido tiene, entonces, decir que la APC (o la ECN, u otras
muchas) es una red en Internet? El sentido es estrictamente político. Cuando hablamos de redes en
Internet, sea APC o cualquiera otra, estamos hablando de gente que explícitamente se plantea
cooperar, trabajar en red, compartir recursos, crear un espacio común, apoyarse mútuamente en
casos de represión o de ataques, etc. sin que esta cooperación tenga apenas requerimientos técnicos.
Dicho en otras palabras, la pertenencia a una red en Internet es, ante todo, una decisión política (o
burocrática) que puede cambiar de un día para otro sin que este cambio tenga apenas repercusiones
técnicas (en el caso de la APC la pertenencia da derecho a participar en numerosos grupos de
noticias por lo general bastante poco dinámicos, derecho que no se extiende al resto de gente). No
hay la menor duda, por tanto, de que Nodo50 así como los otros miembros de IPANEX comparten
los puntos de vista y las prácticas de la APC, ya que de otro modo su pertenencia a esta red no
tendría explicación alguna.
Continua --»
Por qué Nodo50 ha dejado de interesarme
by Marga
Un servidor sobre Windows-NT
Según se narra en "La inconfesable historia del Nodo50", firmada por la Asamblea de Nodo50 y
publicada en la revista De Sur a Sur (núm. 14, marzo de 1998), en noviembre de 1996 Nodo50
"monta un servidor sobre Windows NT con accesos Internet e Infovía".
Por esas fechas, en plena constitución de IPANEX, Nodo50 debía conocer que Pangea, en un
entorno académico, había optado por desarrollarse sobre GNU/Linux (por no hablar de la ECN, que
desde el primer momento apostó por software libre) mientas Eusnet, en un entorno empresarial,
optaba abiertamente por Windows NT (tan abiertamente que no ha tenido ningún reparo en incluir
el logotipo de Microsoft, enlace incluido, en su página principal). Supongo que Nodo50 decidió
utilizar software propietario de Microsoft en lugar de software libre GNU/Linux por motivos de
facilidad de uso aunque la explicación dada en su momento, fue de corte autojustificativo y
populista e hizo de la necesidad virtud al decir que no se usaba GNU/Linux no porque no se supiera
usar sino por ser un sistema operativo elitista, propio de hackers y alejado del usuario medio. Algo
de mala conciencia debía rondar bajo esta decisión pues, de otro modo, el logotipo de Microsoft
habría aparecido también en la página principal de Nodo50.
El proyecto GNU (GNU's Not Unix) nació hacia 1983 de la mano de Richard M. Stallman y la Free
Software Foundation. Pretendía recuperar el espíritu de cooperación propio de la contracultura
hacker de los años setenta y que había sido literalmente barrido con la irrupción de las grandes
corporaciones (IBM, Hewlett Packard...) en el mercado de la informática personal. Promotores de
un uso político de la informática personal, una especie de computopía, y resistiéndose al devastador
empuje de transnacionales como Apple o Microsoft, algunos supervivientes de la contracultura
hacker emprendieron el proyecto GNU[2].
GNU aboga por la libertad para utilizar, replicar, o modificar el software; reclama el derecho a
copiar y distribuir programas informáticos sin límite alguno y a resistirse a las patentes y a todas las
formas de software propietario. A fin de ejercer esta libertad, GNU ha registrado la licencia GPL,
bajo la cual miles de desarrolladores de software de todo el mundo registran los programas que
producen, haciendo públicos sus códigos fuente y permitiendo la libre utilización, modificación y
copia de esos programas (eludo el uso del femenino por la escasa visibilidad de las programadoras
en éste como en otros proyectos, sea porque no las hay, sea porque expresamente evitan el espacio
público y prefieren desarrollar su trabajo en un entorno más íntimo).
La Free Software Foundation no se limita a hacer propaganda explicando por qué el software no
debería tener propietarios[3]: se trata de un potente y muy dinámico proyecto emprendedor bajo
cuya coordinación se ha desarrollado el sistema operativo GNU/Linux así como infinidad de
programas de aplicación y por supuesto, por motivos que nos llevarían a la historia de Internet, toda
la tecnología necesaria para prestar servicios en la red, tecnología que es utilizada por
aproximadamente la mitad de los servidores de todo el mundo (Linux 34%, Micro$oft 25%,
FreeBSD 15%: o sea, Linux + BSD y otros Un*x libres es más del 50%).
La crítica al software propietario
A menudo la crítica práctica al software propietario se limita a lo que sus propietarios llaman
pirateo y que más bien deberíamos llamar ayuda mutua. Si yo tengo un programa y tú lo necesitas,
¿por qué motivo debería no prestártelo? Sin embargo, y a pesar de los llantos de los gigantes de la
informática personal por las enormes pérdidas que las copias ilegales de software les ocasionan, lo
que está en juego con la implantación del software propietario no es la simple venta de algunos
programas más, sino el control total sobre toda forma de transmisión y de tratamiento de la
información[4].
En la elección entre un sistema de tratamiento de la información propietario, que se cuelga cada dos
por tres, que cambia constantemente de versión sin razón alguna, que obliga a desmesurados
recursos en hardware, y cuyo código fuente no es accesible, y otro libre, abierto y estable, que ha
sido probado ampliamente por gente que, al utilizarlo, toma parte activa en su desarrollo y que
puede ser estudiado y reutilizado para otros usos, el hecho de que este segundo sea gratuito no es lo
más importante.
Ignoro, y me gustaría dedicar tiempo a reflexionarlo, qué es lo que impele a gente que podría estar
contratada en inmejorables condiciones en alguna gran empresa de software, a hacer público su
trabajo en libre cooperación con otros, pero no puedo dejar de emocionarme cuando leo a Richard
Stallman, persona de la que no sé nada salvo que es un notable programador y un reconocido
hacker, diciendo: "El movimiento del software libre es aún reducido y joven. Como usuario actual
de computadoras, puede que estés utilizando un programa propietario. Si tu amigo te pidiese una
copia, estaría mal que te negases a hacérsela. La cooperación es más importante que el copyright.
Pero la cooperación clandestina, encubierta, no contribuye a formar una buena sociedad. Cualquier
persona debería aspirar a vivir abiertamente, erguido, con orgullo, y eso significa decir 'No' al
software propietario.
Mereces poder cooperar abierta y libremente con otras personas que utilizan software. Mereces
poder aprender cómo funciona el software. Te mereces el software libre."
Es cierto que la utilización de GNU/Linux presenta un aspecto más dificultoso que el engañoso
sistema de ventanas con pantallazo azul. Esta dificultad, que disminuye lentamente, es el precio que
hay que pagar por participar en un proyecto de desarrollo de software non-profit sin fines
mercantiles, una especie de comercio justo (producción free, de uso público) aplicado a un
producto, el software, producido y consumido en el Norte. Ese comercio justo tiene también su
consumo responsable: gente que utiliza, divulga y difunde GNU/Linux, y ayuda a otra gente a
resistirse a la privatización del software pues, como en otros tantos proyectos emprendidos
(seguramente los que más nos gustan), ¿a quién le importa lo fácil?
El proyecto EPITELIO y GNU/Linux
EPITELIO Network fue un proyecto (1996-1998) financiado por el Programa de Aplicaciones
Telemáticas de la Comisión Europea (European Comission DG XIII) para promocionar una red
contra la exclusión social. Como parte de esta iniciativa contra la pobreza y la marginación social,
la Comisión Europea contemplaba el desarrollo de aplicaciones telemáticas para, entre otras cosas,
facilitar el acceso de los sectores sociales marginados a la información y a los servicios orientados a
la integración social de estos grupos. De sobras sabemos lo que significan los proyectos para las
ONGs a efectos de financiación y de posibilidades de intervención, así que no es sorprendente la
participación de Nodo50 en EPITELIO Network en el desarrollo de herramientas que, vía web,
permitieran la recopilación y el acceso a recursos en el área del comercio justo/consumo
responsable.
Lo que es más sorprendente es que la necesidad de desarrollar estas herramientas obligase a
Nodo50 a recurrir a GNU/Linux, pues, por ser GNU/Linux un conjunto de recursos públicos, la
información sobre otras herramientas similares ya desarrolladas, así como la disponibilidad,
accesibilidad y posibilidades de reutilización de éstas lo convertía en un sistema idóneo para la
implementación de otras nuevas (lo fácil se volvió difícil, y viceversa).
Debemos agradecer al área de aplicaciones informáticas del proyecto comunitario EPITELIO
Network la instalación de una máquina linux en Nodo50, máquina que se ha dedicado
exclusivamente a mantener las herramientas desarrolladas para ese proyecto hasta que, en el
momento de escribir estas líneas (verano de 1999), la fuerza de la realidad ha hecho patente que la
fiabilidad, estabilidad y adaptabilidad de GNU/Linux supera en mucho a la de Windows NT, por lo
que Nodo50 con muchos titubeos y un poco a regañadientes ha decidido la migración paulatina
hacia este sistema.
Continua --»
Notas
[2] Hay breve explicación del proyecto GNU en http://www.nodo50.org/laboratorio/atl/gnu.htm
[subir al texto]
[3] Por qué el Software no debería tener propietarios es un alegato a favor del free software que
puede encontrarse enhttp://www.nodo50.org/laboratorio/documentos/atl/stallman1.htm
[subir al texto]
[4] Trampa en el ciberespacio explica cuáles son los intereses reales que, más allá de un simple
incremento de las ventas, se mueven tras el software propietario. Puede encontrarse
en http://usuarios.iponet.es/casinada/31trampa.htm
[subir al texto]
Por qué Nodo50 ha dejado de interesarme
by Marga
El proyecto político Nodo50
En esta modesta genealogía he intentado destacar cuáles han sido, a mi juicio, los hitos más
significativos en el devenir de Nodo50 hasta convertirlo en un espacio imposible para el desarrollo
de nuevos proyectos del tipo SinDominio (que no, por supuesto, para otro tipo de proyectos). ¿Qué
pasa en Nodo50?
Desde mi punto de vista, el bloqueo que actualmente amenaza a Nodo50 obedece a una especie de
punto fijo, un invariante que al mismo tiempo que ha servido para desarrollar e impulsar
enormemente el proyecto, lo ha limitado y despotenciado: a ese invariante lo voy a llamar una
relación instrumental con el ciberespacio[5]. Dicho en otras palabras, una cosa es que nos parezca
interesante utilizar Internet como una herramienta para el desarrollo de las comunicaciones,
comunicaciones que podrían producirse de otra manera pero que entonces serían más lentas, más
caras, más vulnerables o más ineficientes y otra cosa muy distinta es que nos parezca interesante
construir Internet. En la propia propaganda escrita de Nodo50 leemos: "Este proyecto trata de ser
una herramienta de trabajo para mejorar las comunicaciones de todas las organizaciones e
individu@s progresistas que quieran obtener una información alternativa".
Por haber participado y trabajado en Nodo50, y de alguna manera haber contribuido a desarrollar
esa herramienta de trabajo, he tenido ocasión de conocer de cerca diversas maneras de entender el
ciberespacio. La diferencia entre una relación instrumental y una relación constructiva no es un
simple matiz para rizar el rizo. Se trata de un aspecto crucial en lo que respecta a la manera de
acercarse a los retos tecnológicos, económicos y organizativos que el proyecto plantea pues, si
Internet es una herramienta, entonces abordamos esos retos con criterios de facilidad, baratura y/o
eficiencia, mientras que si lo que queremos es construir Internet, entonces debemos dotarnos de
criterios de valor internos a eso que estamos construyendo, criterios inmanentes, específicos del
medio y que, tal vez, pongan en cuestión otros valores más tradicionales.
La estructura social y los modelos comunicacionales
En el artículo "Debate político sobre la comunicación", publicado por SODePAZ en el núm. 14
(marzo de 1998) en la revista De Sur a Sur (revista andaluza de solidaridad, paz y cooperación)
escrito por Armand Mattelart/Jean Marie Piemme, podemos leer: "Los modelos comunicacionales
no explican la sociedad, sino que es la estructura social la que explica los modelos
comunicacionales. Así pues, la dificultad de hallar una comunicación alternativa es correlativa a la
dificultad experimentada por las grandes fuerzas históricas en lucha contra el capitalismo para
producir nuevas formas de relación en el seno de sus organizaciones y en general en el seno de la
sociedad global".
Pues bien, esta correlación entre el espacio virtual y el espacio material (no quiero llamarlo real
pues lo virtual también es muy real) es lo que está en discusión ya que, si bien es cierto que a través
de esta correlación entre estructura social y modelos comunicacionales se introduce en éstos el
antagonismo (negatividad, resistencia, lucha de clases o como queramos llamarlo) que los aleja de
la relatividad postmoderna, también es cierto que esta correlación niega cualquier posibilidad de
autonomía para esos espacios comunicativos y, al negar la posibilidad de autonomía, no entiende el
deseo de construirla.
La pregunta sobre si el ciberespacio permite una experiencia específica de autonomía sólo puede ser
una pregunta activa hecha desde dentro de esa experimentación pues, de otro modo, adoptaría la
mirada quirúrgica de sociólogos, antropólogos, psicólogos o demás bomberos de lo social.
Entre usar Internet y hacer Internet hay una distancia (distancia que se abre cada vez que alguien
piensa "qué puedo sacar de la red"? en lugar de "qué puedo aportar?"), al tiempo que hay una
proximidad. Aunque son cosas diferentes, también son indisociables. Precisamente el uso masivo de
Internet se hace funcional (al sistema), entre otras cosas, porque exige una cierta participación
activa al tiempo que, paradójicamente, impone el justo grado de pasividad (tal y como requiere la
construcción del consenso en las sociedades de control). No creo posible un uso de internet que no
contribuya a su construcción. Pero puede haber, efectivamente, un uso pasivo y acrítico con lo que
participar en esta construcción significa.
Por supuesto hay que reconocer a quienes desde el primer momento apostaron por utilizar esta
infraestructura el mérito de haberla extendido y robustecido. Lo triste es que Nodo50 no haya
podido aunar bajo un mismo proyecto maneras de usar Internet con maneras de construirla. De otro
modo, ante la propuesta de SinDominio, la pregunta (totalitaria) por el sentido de SinDominio no se
hubiera planteado, pues no tiene sentido desde dentro de Internet preguntarse por el sentido de un
nuevo recurso, tal y cómo haríamos en el espacio material ante el proyecto de construcción de un
nuevo pantano, autopista o vía férrea de alta velocidad por parte del Estado.
Lo específico del ciberespacio
Mucha gente se mueve en el ciberespacio para hacer cosas que sólo se pueden hacer ahí. Uno de los
movimientos sociales que ha instaurado una especificidad en el ciberespacio es el movimiento por
el software libre, con toda la discusión que introduce sobre la ilegitimidad de la propiedad sobre la
producción inmaterial y, en consecuencia, la legitimidad de copiar lo que, por más que sus
propietarios llamen originales, no son más que copias de copias. Otra gente, inventora-constructora
de los ciberderechos, hace efectivo el ciberderecho a la privacidad en las comunicaciones
desarrollando y haciendo públicos algoritmos de encriptación en una batalla contra el control social
que puede suponer penas de cárcel bajo la jurisdicción militar de sus respectivos Estados[6]. Junto a
estos movimientos sociales se desarrollan otras prácticas igualmente audaces y rompedoras, tales
como la pornografía no sexista promovida, entre otras, por Helena Velena[7], o todas las formas de
cibertravestismo junto a un sinfín de prácticas de cooperación social que no se ajustan a las formas
clásicas de hacer política.
Así, esta primavera, en el italiano Hackit99 pudo discutirse una valoración ética sobre la legitimidad
de atacar máquinas con medios maquínicos y/o humanos, en un debate que no podría producirse en
los mismos términos si de la producción de daños materiales se tratara. En el sugerente relato de
Julian Dibell "Una violación en el ciberespacio"[8], publicado en el núm. 27-28 de la revista El
Paseante dedicado a la revolución digital y sus dilemas[9], una violación perpetrada en uno de los
mundos digitales semificticios conocidos como dimensiones multi-usuario o MUD (al fin y al cabo
una base de datos), abre una reflexión sobre las diferencias socialmente significativas entre los
cuerpos online y los cuerpos físicos y, llevando al extremo la extraña idea de la violencia sexual
inmaterial, interpela nuestras ontologías, epistemologías y éticas sexuales tardomodernas. Y esto
son sólo muestras, indicios de lo que acontece en la red.
Al borde de un futuro en el que los entornos digitales quizás lleguen a ceñir ¿o expandir? la vida
tanto como hoy lo hace la arquitectura (por tomar un ejemplo material) o el dinero (otro ejemplo de
mayor abstracción), no vale decir que el ciberespacio es sólo una herramienta para la comunicación,
igual que no vale decir que la arquitectura es sólo una herramienta para el uso ordenado del espacio
o el dinero es sólo una herramienta para la satisfacción de las necesidades.
El hecho de que a menudo operemos como máquinas-herramienta encarnadas que expresan,
comunican y producen junto y en conexión con otras (en red) plantea nuevas ambiguedades, otras
formas de placer y también de poder, otros lenguajes, otros sufrimientos. La posibilidad de construir
sociedades online más libres que aquellas que están trazadas sobre la mierda, el cemento y el capital
parece que es un hecho (al menos en éste nuestro primer mundo). Puede ser que esas sociedades
online nos hagan más fuertes y desde ellas ataquemos con más contundencia la mierda, el cemento
o el capital. También puede ser que la belleza de la luna digital reblandezca nuestros sesos, y su
promesa de una felicidad postmoderna recubra y desdibuje esa mierda, ese cemento o ese capital.
Pero lo que no puede ser es que la razón instrumental se imponga y que todas esas posibilidades nos
sean ajenas y dejen de apasionarnos.
Las consecuencias de un modelo
En el ejemplo que me ha sugerido la conversación con una amiga, "pongamos el caso de alguien
que participa en una lista de correo de la ECN. Por un lado tiene una relación instrumental con
Internet porque usa la red para comunicarse. Por otro, su forma de comunicar es absolutamente
distinta, se da con otro ritmo, otro espacio y otro tiempo a como podría darse de no existir Internet.
Construye una práctica de asamblea permanente que atraviesa territorios geográficos y participa en
la construcción de una comunidad. Interviene así en el panorama de los centros sociales italianos,
pero también en la configuración de un uso de Internet, de un@s usuari@s determinad@s,
contribuye a la constitución de redes que viven en Internet, con sus formas de vida, sus lenguajes,
sus debates, y por tanto, participa, en cierto grado, en su construcción."
Las nuevas tecnologías permiten nuevas prácticas, pero el simple contacto con las nuevas
tecnologías no es suficiente para modificar prácticas profundamente arraigadas en las viejas formas
de hacer política.
El proyecto Nodo50 parece responder a la idea de que ciertos contenidos "de izquierdas" deben
circular por Internet y, para que sean visibles, se les debe ofrecer un soporte técnico. Este punto de
vista ignora que ese soporte es en sí mismo un contenido y que, en su construcción, cada decisión,
cada elección, es una acción política, política en términos de relaciones de poder y de construcción
de lo real, de lo posible y de lo que no lo es y, por tanto, cargada de contenidos, contenidos
producidos por interactuaciones en el espacio material, pero también sobre la superficie del
ciberespacio.
Las consecuencias de este punto de vista son evidentes: uso instrumental del software, relación
clientelar con las/os usuarias/os, refuerzo de la cultura utilitaria y no cooperativa, ausencia del
trabajo en red, estancamiento de la circulación de saberes y conocimientos, relaciones competitivas
con otros proyectos (incluso dentro de IPANEX), construcción de la unidad de la izquierda como un
bloque cuya hegemonía se pone en peligro por la proliferación... en definitiva, el bloqueo de un
proyecto que no puede deshacerse de su estructura grupuscular-tutelada para hacerse en
cooperación con otros.
Para terminar
Cuando me decidí a trabajar para Nodo50 quería, además de ganar algo de dinero, experimentar
sobre la posibilidad de contribuir a la construcción de un centro social okupado poniendo la mirada
(la energía, el entusiasmo, la concentración, el tiempo...) en un proyecto autónomo respecto del
centro social. Los ritmos y exigencias de Nodo50, tan distintos de esa especie de agujero negro
depredador de energía en el que a veces se convierten los espacios okupados, suponían un
apasionante reto al que había que añadir la dificultad que para una mujer supone asumir tareas
técnicas relacionadas con las nuevas tecnologías, dificultad que se manifiesta en la escasez de
mujeres en entornos telemáticos (y que me pregunto si tal vez obedecerá a la decisión explícita de
no asumir ese terreno como propio).
Este intento ha fracasado, pero no me arrepiento. En unos momentos de profundo desaliento,
cuando debo recomponer todo un mundo de relaciones dentro y fuera del espacio que contribuyo a
okupar, creo que, si hubo error, éste no estuvo en la decisión de cooperar con Nodo50, sino en
esperar algo de ello.
mpadilla@sindominio.net
Notas
[5] El ciberespacio es un concepto creado por William Gibson en su extraordinaria novela de
ciencia-ficción Neuromante (1984) y que fue inmediatamente adoptado por los hackers. En un
sentido amplio, hace referencia al espacio de comunicación abierto por la interconexión mundial de
los ordenadores y de sus recursos. Esta definición (de Pierre Lévy) comprende el conjunto de
sistemas de comunicación electrónicos digitales (incluyendo el conjunto de redes hertzianas y
telefónicas clásicas). Desde este punto de vista Internet no abarca todo el ciberespacio (aunque hoy
por hoy es su expresión más extensa) sino que es el ciberespacio quien se sirve de Internet.
Hay quien dice que el ciberespacio, ese lugar tan virtual como real que requiere de un soporte
tecnológico para poder ser, se inauguró con el lenguaje. Sea como fuere, ciberespacio no se refiere
ni a Internet en particular ni a ninguna tecnología determinada y, por abstraerse de las diversas y
cambiantes tecnologías concretas sobre las que se sustenta, permite una reflexión más abstracta.
[subir al texto]
[6] Sólo a modo de ejemplo, entre otros muchos sitios podemos visitar http://www.kriptopolis.com/
[subir al texto]
[7] Helena Velena está en http://www.helenavelena.com
[subir al texto]
[8] No he encontrado traducción al castellano. El original en inglés A Rape in Cyberspace está
enhttp://www.levity.com/julian/bungle.html
[subir al texto]
[9] http://www.siruela.com/elpaseante/index.htm
[subir al texto]
Comments
No comment yet! Be the first to add one!