realidad_pixeles.pdf

Medios

Part of Textos del Area Telemática

extracted text

¡"Si uno mira a la realidad lo suficientemente cerca,
podrá ver los píxels."
Dicho anónimo que circula por Internet.
Internet se presenta a sí misma como el primer foro permanente donde millones de personas de todo
el mundo intercomunican de manera autónoma independientemente de su edad, sexo, nacionalidad,
raza o creencias. Con ello se pone en marcha una nueva mitología y una nueva posibilidad de creer
que por fin existe un lugar abierto y seguro donde reunirnos y compartir en ausencia de fronteras,
líderes, amos, policía ni ejército: un gran espacio para el diálogo construido sin contaminar, sin
expoliar, sin sacrificios, sin muerte. Curiosamente, una gran máquina comunicativa vendría a
efectuarse precisamente ahora que ya no queda nada que comunicar y cuando la posibilidad de que
ocurra algo diferente parece ahogada por el todo es lo mismo.
Las nuevas tecnologías comunicativas no suscitan oposición abierta, pero sin duda producen
rechazo. Aunque desde los movimientos sociales a las comunidades cyberpunks, pasando por
multitud de colectivos radicales, parece abrirse o al menos no se niega rotundamente la posibilidad
de usos liberadores, comportamientos individuales manifiestan resistencia e incluso hostilidad ante
la continua renovación tecnológica que, al requerir siempre nuevos adiestramientos, en definitiva
impone una intensificación directa o indirecta de la jornada laboral.
Desde este punto de vista la escalada de nuevas tecnologías sería sufrida sencillamente como la
obligación de trabajar más. Pero su funcionalidad en la recomposición del ciclo productivo va más
allá, pues cuando el tiempo de vida en su totalidad tiende a convertirse en tiempo de trabajo, y
cuando la comunicación deviene un elemento productivo primordial, la sociedad en su conjunto
trabaja como una gran máquina productiva cuya integración no sería tan eficiente sin las tecnologías
comunicativas, de entre las cuales Internet es la más paradigmática.
No es fácil caracterizar aquello que es Internet debido a que esta red de redes posee la doble calidad
indivisible de aquello que es al mismo tiempo un producto y también su propio medio de
producción, y que por tanto satisface necesidades al tiempo que las instituye. Internet es una
nueva tecnología y al mismo tiempo es una infraestructura para la comunicación; infraestructura
que esglobal y que tiene propósito universal. Como tecnología, Internet es a la vez artefactual, pues
está integrada por ordenadores, cables o satélites materiales claramente identificables; es también
tecnología organizativa, pues impone un determinado modelo de interacción comunicativa: la red; y
finalmente es una tecnología simbólica, pues vehicula la construcción de nuevas realidades
materiales y virtuales que no podrían producirse de otro modo.
Al mismo tiempo Internet es una infraestructura con aspiraciones globales, pues tiende a englobar
toda la realidad productiva en sus múltiples aspectos de producción, distribución, consumo,
espectáculo, participación... Y su propósito es universal, pues no ha sido desarrollada, y en ello
estriba en gran medida su potencia, para proveer servicios particulares. Por el contrario, soporta
todo tipo de información, ya sea ésta codificada como texto, datos, imagen estática o en
movimiento, sonido, e incluso realidad virtual, y no se prevén límites a la cantidad o variedad de los
servicios que puede ofrecer.
El carácter novedoso de Internet estriba en ser la primera infraestructura comunicativa global y
universal organizada según el modelo de red. Es cierto que se han desarrollado otras muchas
tecnologías comunicativas pero, o bien no soportan satisfactoriamente nuevas maneras de codificar
la información (caso del teléfono) o bien se organizan según un modelo centralizado que no soporta
la interacción (caso de la televisión).
Puesto que una red no es simplemente un conjunto de canales de comunicación interconectados,
sino también una técnica organizativa, Internet no es solamente un modo más sofisticado de
mantenernos informados, sino una infraestructura adecuada para la comunicación y la cooperación
social en la justa medida que el actual proceso de producción social demanda, aunque precisamente
por su carácter global y universal pueden producirse excesos de participación que, probablemente,
serán controlados a través del precio de los accesos y de los servicios.
Las redes de ordenadores son una respuesta tecnológica a la necesidad de aumentar la productividad
a través de la integración de la información y de la utilización intensiva de las máquinas, lo que

eufemísticamente se conoce como compartición de recursos. Antes de su aparición, la compartición
de información por parte de varios ordenadores sólo era posible mediante la utilización de
dispositivos de almacenamiento extraíbles (por ejemplo, nuestros disquetes de hoy en día). El uso
de unidades de almacenamiento extraíbles permitía a varios usuarios compartir información, pero
no permitía compartir otro tipo de recursos tales como impresoras, discos duros, o programas. Las
tecnologías LAN (Local Area Network) vinieron a resolver este problema. Utilizando las diversas
tecnologías LAN disponibles fue posible interconectar varios ordenadores no muy alejados entre sí,
por ejemplo situados en un mismo edificio, a fin de que pudieran compartir información, programas
y demás recursos tales como impresoras o discos duros.
Paralelamente al desarrollo de las tecnologías LAN, aparecieron las tecnologías WAN (Wide Area
Network). Las tecnologías WAN vinieron a satisfacer la necesidad, surgida especialmente en
centros de investigación industriales y académicos, de acceder a un ordenador situado a muchos
kilómetros de distancia (por ejemplo al otro lado del Atlántico) para utilizar su capacidad de
cálculo.
De las tecnologías LAN y WAN surgieron las redes. Las redes se mostraron más potentes que la
suma de sus componentes, y la compartición de recursos empezó a parecer algo natural, incluso a
pesar de las demoras que toda compartición conlleva. Pero la proliferación de redes produjo nuevas
necesidades tecnológicas.
Una red de ordenadores no es un grupo de ordenadores conectados entre sí, sino un dispositivo con
sus propias características mecánicas, eléctricas y lógicas cuya existencia es independiente de los
ordenadores que la utilizan. Los ordenadores no son la red. Simplemente se conectan a ella
temporal o permanentemente y utilizan los servicios que ésta proporciona: por ejemplo, el acceso a
una impresora, la transferencia de un fichero, la ejecución de un programa o el envío de un mensaje.
La consecuencia de este detalle técnico es muy relevante, pues significa que no pueden unirse dos
redes pequeñas para formar una red mayor simplemente tirando un cable entre ambas. La mayoría
de tecnologías LAN son incompatibles entre sí. Lo mismo ocurre con las tecnologías WAN y por
supuesto entre unas y otras. Cada tecnología tiene sus propias especificaciones respecto a voltaje,
frecuencia, modulación, codificación, direccionamiento, transporte etc. A finales de los años setenta
había muchas LAN y alguna WAN. No había, sin embargo, la posibilidad de unirlas entre sí, de
manera que cada red permanecía aislada.
A finales de los años sesenta, el Departamento de Defensa de los EE.UU. a través de la agencia
federal ARPA (Advanced Research Projects Agency) se interesó por desarrollar la investigación
sobre redes de ordenadores utilizando gran variedad de tecnologías. Según se cuenta, ARPA
pretendía que las redes de ordenadores del Departamento de Defensa pudieran mantener la
operatividad ante un eventual ataque soviético. Para ello, las redes se debían organizar propiamente
como redes, es decir, sin un lugar central que las hiciera vulnerables. ARPA asumió la interconexión
mútua de distintas redes como un problema de carácter estratégico para la defensa de EEUU, e
interesó a investigadores tanto industriales como académicos en su solución, les instó a discutir sus
hallazgos y poner en común sus proyectos, y puso a su disposición medios para aplicar sus
propuestas. Dado que el objetivo era la interconexión entre las LAN y las WAN, el proyecto
auspiciado por ARPA empezó a conocerse como internetwork (interredes) y con el tiempo el
término abreviado, internet, se aplicó tanto a los proyectos de investigación como a las redes
prototipo que se desarrollaron. ARPA concibió el proyecto de la interconexión entre redes como
algo eminentemente operativo, e instó a los investigadores a aplicar sus descubrimientos en la WAN
de ARPA llamada ARPANET. Sobre la estructura de ARPANET los ingenieros del proyecto internet
desarrollaron una interred prototipo que, para distinguirla de otros prototipos fue bautizada como
Internet (la inicial con mayúsculas). De esta manera, Internet fue la red utilizada por los
investigadores del proyecto para intercambiar documentos, poner en común ideas y coordinar su
trabajo, mientras que al mismo tiempo fue una red experimental sobre la que se aplicaron esas ideas
y proyectos, adquiriendo desde el primer momento el doble carácter de ser a la vez productora y
producida.
A mediados de los años setenta las empresas informáticas que habían desarrollado tecnologías LAN

o WAN no sólo mantenían en secreto los resultados de sus investigaciones, sino que patentaban las
tecnologías para garantizar la propiedad sobre ellas. Las empresas creían que crear sistemas
cerrados preservados de influencias exteriores garantizaba de mejor manera sus beneficios. Por el
contrario ARPA decidió que Internet fuera un sistema abierto y en consecuencia los resultados de
proyecto se hicieron públicos. Contraviniendo lo que por aquel entonces era habitual, todas las
especificaciones de Internet fueron publicadas y puestas a disposición de cualquier empresa que
quisiera desarrollar una tecnología compatible.
A principios de 1983 una nueva manera de interconectar redes había sido lo suficientemente
desarrollada, probada y depurada como para ser de utilidad al ejército de los Estados Unidos y
ARPA conectó a Internet todas las unidades militares.
Mientras ARPA auspiciaba el proyecto Internet, ingenieros de la empresa Bell desarrollaban otra
tecnología: el sistema operativo Unix. Hasta ese momento cada sistema operativo había sido
desarrollado para una determinada arquitectura de ordenador, es decir, para una determinada
estructura del hardware. En consecuencia, el desarrollo de una nueva arquitectura de ordenador
exigía la implementación de un nuevo sistema operativo. Bell aspiraba a desarrollar un sistema
operativo portable, es decir, adaptable a cualquier arquitectura de ordenador. A fin de probar la
portabilidad de la tecnología Unix, Bell decidió hacer público no sólo el uso de este sistema
operativo, lo que significaba su distribución libre y gratuíta, sino el sistema operativo en sí, de
manera que hizo público el código fuente de Unix e instó a profesores y estudiantes a que lo
probaran en nuevas máquinas, siendo en la Universidad de California en Berkeley donde el interés
por Unix fue mayor.
La agencia federal ARPA, al caso de esta movida, supo ver la enorme capacidad productiva que se
ponía en marcha gracias a la libre distribución del software y negoció un convenio de investigación
con la universidad de Berkeley: ARPA suministraba a la universidad una copia del software
desarrollado en el proyecto Internet, y los investigadores universitarios se comprometían a
incorporar este software en las nuevas versiones de UNIX.
A partir de este momento un sistema operativo de libre distribución conocido como UNIX contenía
todo el software necesario para poner en marcha una red bajo la tecnología Internet. Muchos
universitarios construyeron redes experimentales con fines académicos utilizando este software y
empezaron a proliferar internets que, aunque no estaban conectadas físicamente con Internet,
utilizaban la misma tecnología y experimentaban con ella.
A finales de los años setenta, muchos investigadores industriales y académicos manifestaban la
necesidad del trabajo en red. La agencia federal NSF (National Science Foundation), responsable de
la investigación y enseñanza de ingenierías, asumió el proyecto de interconectar a todos los
investigadores informáticos en una sola red que se llamaría CSNET. ARPA apoyó el proyecto y
ofreció Internet como infraestructura para CSNET. CSNET proporcionó conexiones Internet a los
departamentos de informática de los centros universitarios pero, como la conexión a era cara,
desarrolló maneras de proporcionar los servicios de la red sin una conexión física completa, siendo
así como Internet comenzó a ofrecer distintosmodos de acceso. El hecho de proveer de acceso a
Internet a los centros académicos tuvo resultados multiplicadores. Muchos estudiantes en busca de
temas para sus proyectos de fin de carrera investigaron sobre Internet, pusieron a prueba la
capacidad de la red, idearon aplicaciones para probar su funcionalidad y aportaron entusiasmo,
creatividad y capacidad productiva. Cuando en 1983 el ejército de los Estados Unidos decidió
utilizar Internet como red operativa, muchos investigadores, profesores y estudiantes de centros
universitarios habían contribuido a la robustez de esta nueva tecnología.
Durante los años siguientes, Internet se consolidó como infraestructura para la comunicación. El
crecimiento de Internet no debe sólo medirse, como suele hacerse, en términos de cantidad de
máquinas conectadas, sino también en términos de su funcionalidad estructural. Distintas agencias
federales de los Estados Unidos, tales como la NASA (National Aeronautics And Space
Administration) o el DOD (Departament of Defense) adoptaron la tecnología Internet bien fuera
con conexión física o sin ella, mientras que la NSF apostó por Internet como medio de conexión
entre investigadores en pro de la mayor competitividad de Estados Unidos en el mercado mundial.

Y la estructura física de Internet quedó pequeña.
En 1987, la NSF asumió la construcción de una nueva columna vertebral para Internet, adjudicando
en concurso público las líneas de transmisión de larga distancia a MCI, los ordenadores a IBM y la
operatividad de la red a MERIT. Internet triplicó su capacidad, pero a finales de 1991 de nuevo
quedó pequeña. La NSF decidió dejar de sufragar los gastos de Internet e implicó a las empresas
privadas en la construcción de una nueva columna vertebral, de manera que IBM, MCI y MERIT
formaron una asociación llamada ANS (Advanced Networks and Services) que construyó una nueva
columna vertebral para Internet conocida como ANSNET. En esta ocasión su capacidad se
multiplicó por treinta, y por primera vez los cables y ordenadores sobre los que se sustenta Internet
dejaron de pertenecer al gobierno de los Estados Unidos para pertenecer a una empresa privada,
iniciándose así el proceso de privatización de Internet y su uso como red comercial tal y como hoy
la conocemos, es decir, como un terreno abonado para la venta no sólo de ordenadores y programas,
sino que también de accesos y servicios.
Mientras en los Estados Unidos se desarrollaba la tecnología Internet, en Europa se desarrollaba con
el mismo propósito la tecnología X.25. Aunque en sus aspectos artefactuales las tecnologías Internet
y X.25 vienen a ser la misma cosa, difieren enormemente como tecnologías simbólicas. A diferencia
de Internet, en cuyo desarrollo fueron implicadas multitud de capacidades productivas, la tecnología
X.25 fue desarrollada y aplicada bajo el control de las compañías telefónicas, que son monopolios
de sus respectivos estados. El caso es que mientras la tecnología X.25 se desarrolló exclusivamente
como tecnología artefactual para el transporte de la información (servicios bancarios, reservas en
ferrocarriles o líneas aéreas...) Internet incorporó multitud de servicios que son reflejo de la
pluralidad de subjetividades que intervinieron en su construcción. Desde juegos de rol hasta
comunicados del subcomandante Marcos, potencialmente todo lo que hoy es decible se dice en
Internet. Por eso, mientras que otras redes de redes han pasado desapercibidas, Internet es un
fenómeno que, dicho sea de paso, entró en Europa financiado por IBM.
Internet no es el único servicio de comunicación disponible que enlaza ordenadores, pero difiere de
los servicios pioneros como Compuserve, USENET o American Online. Mientras que estas redes
comerciales fueron diseñadas atendiendo al servicio que debían prestar, es decir, adaptando su
hardware y su software a la mejor prestación del servicio, Internet no ha sido diseñada para ofrecer
ningún servicio específico. La especialización que en principio favoreció la competitividad de los
servicios telemáticos ha redundado al mismo tiempo en su falta de competitividad, pues los costos
de agregar nuevos servicios a redes diseñadas para otros usos son muy elevados. Por el contrario,
Internet no ha sido diseñada para ofrecer ningún servicio en particular y puede, por tanto, ofrecerlos
todos incluyendo aquéllos que ni siquiera habían sido concebidos cuando se desarrolló la tecnología
básica. Flexibilidad, versatilidad y adaptabilidad (cualidades todas ellas muy valoradas por la
patronal) confieren a Internet ese carácter de tecnología-infraestructura universal hegemónica en el
mercado de las redes de redes.
El software que proporciona los servicios en Internet está organizado según dos capas funcionales:
la capa inferior contiene el software necesario que permite la comunicación entre ordenadores, y se
conoce como TCP/IP. La capa superior está formada por las aplicaciones que proporcionan los
servicios. El conjunto de protocolos TCP/IP es el software que proporciona los recursos de
comunicación básicos utilizados en Internet, y constituye la base sobre la que se sustentan todos los
servicios.
A pesar de la diversidad de servicios que ofrece Internet y de las distintas apariencias que estos
servicios adoptan, todas las aplicaciones que corren en Internet siguen el mismo modelo de
organización y se ajustan al paradigma conocido como cliente-servidor.
La interacción de dos ordenadores bajo el modelo cliente-servidor significa que uno de ellos ofrece
un servicio y el otro lo demanda o, dicho de otro modo, que el ordenador cliente solicita un servicio
que el ordenador servidor le presta. Por ejemplo, si en un ordenador un programa servidor maneja
archivos, entonces un programa cliente en otro ordenador le podrá solicitar la transferencia de uno
de esos archivos. Si un servidor maneja un juego multiusuario, quien quiera participar en el juego
deberá disponer de un programa cliente y solicitar un acceso al servidor del juego.

La adopción del modelo cliente-servidor como paradigma de interacción no es un asunto inocente,
pues determina absolutamente (igual que nuestras democracias) no aquello que puede decirse, sino
el procedimiento para decirlo.
Aunque en sentido informal hablamos de ordenadores que se conectan, en sentido estricto
únicamente los programas se pueden comunicar. Cuando en Internet se establece una conexión ello
significa que dos programas, necesariamente uno en calidad de cliente y otro en calidad de servidor,
están interactuando.
Aunque Internet no "cierra" y siempre está dispuesta a transportar información de un punto a otro,
no hay por qué suponer que la comunicación siempre es posible. En cierto modo, Internet funciona
como una red telefónica: el programa cliente debe llamar y el programa servidor debe responder la
llamada antes de que la comunicación sea efectiva. Dicho sea de otro modo, la comunicación sólo
es posible si el servidor está en funcionamiento y acepta llamadas.
Debido a que son los programas y no los ordenadores los que se comunican, y debido a que los
ordenadores pueden ejecutar varios programas simultáneamente, cada ordenador puede participar
en muchas conversaciones al mismo tiempo, actuando en unas como cliente y en otras como
servidor.
Internet es una red entre iguales o, con otras palabras, es una tecnología punto a punto (peer-to-peer
networking). El términopunto a punto enfatiza la relación simétrica entre todos los ordenadores
conectados a la red, la ausencia total de niveles jerárquicos, la posibilidad de interactuación en
modo indeterminado de todos con todos, y por tanto la facultad de cualquier ordenador de iniciar
arbitrariamente la conversación con cualquier otro. Las redes entre iguales carecen de la
vulnerabilidad de aquellas otras organizadas según el modelo maestro-esclavo, en las que existe un
lugar central (un ordenador) desde el que se organiza la conversación. El ordenador maestro se
dirige reiteradamente a cada uno de los ordenadores esclavos y pregunta ¿tienes algo que decir a
alguien? Si la respuesta es afirmativa el esclavo envía los datos al maestro, que a su vez los envía al
esclavo destinatario, y así sucesivamente.
Si el modelo maestro-esclavo puede describirse como "habla sólo cuando se te pregunte", el modelo
punto a punto se describiría como "todas las iniciativas comunicativas son bienvenidas" o incluso
"di lo que sea, pero no calles". Ahora bien, el hecho de que cualquiera pueda iniciar la conversación
no significa que ésta carezca de reglas. Antes se ha mencionado que el software Internet está
organizado en dos capas funcionales. Pues bien, en la capa inferior, aquella que garantiza la
comunicación, Internet es una red punto a punto, mientras que en la capa superior, aquélla que
ofrece servicios, Internet es una red cliente-servidor.
A modo de resumen, digamos que utilizar Internet, a parte de las cuestiones relacionadas con el
acceso a la red, supone discernir el tipo de servicio que se quiere utilizar, disponer en nuestro
ordenador de un programa cliente para ese servicio, y conocer la dirección Internet de un servidor al
que se le solicitará el servicio.
La tecnología Internet es, entre otras muchas cosas, un paradigma de interacción. Es cierto que en la
red hay muchos recursos disponibles, especialmente el recurso información, pero a pesar de la
abundancia informativa no basta con "estirar la mano y tomar lo que se necesita"; eso "que se
necesita" hay que pedirlo según las reglas del juego. Naturalmente, las reglas pueden saltarse y la
transgresión electrónica en forma de expropiación de la información ha sido la actividad favorita de
los hackers (practicantes del libre acceso a la información) y los crackers (terroristas informáticos
con afán destructivo), pero en las redes, para transgredir, hay que saber.
La gama de servicios que ofrece Internet no es algo definitivamente cerrado. Nuevos servicios
pueden añadirse si se programan aplicaciones servidoras y clientes adecuadas. Y es posible que
otros servicios desaparezcan o queden muy restringidos, simplemente dejando de programar
aplicaciones servidoras y clientes de libre distribución (gratuitas). Se listan a continuación los
servicios más utilizados:
1. Servicios que manejan información previamente grabada:
1. Correo electrónico (e-mail): similar a la correspondencia.
2. News: similar a una discusión, no en tiempo real, en un grupo de afinidad.

3. FTP: transferencia de ficheros. Este servicio permite obtener la copia de un fichero, sin importar
lo que éste contiene. La transferencia de archivos se utiliza para obtener nuevos programas clientes
o servidores y ejecutarlos en la propia red.
4. Telnet: acceso remoto a otra máquina. Mediante este servicio se puede trabajar efectivamente en
otro ordenador (el ordenador de la empresa, de la facultad, etc.) desde un lugar remoto (por ejemplo
desde casa).
5. Archie, Verónica: búsqueda automatizada. Se utiliza para conocer la localización de un archivo
cuyo nombre o descripción se conoce.
6. Wais: búsqueda automatizada de contenido. Se utiliza para localizar archivos cuyo contenido se
conoce en parte.
2. Servicios de comunicación directa:
1. Talk: similar a una conversación telefónica pero sin sonido, de manera que los mensajes enviados
deben escribirse con el teclado, y los recibidos deben leerse en la pantalla.
2. IRC: similar a Talk pero múltiple.
3. Teleconferencia de audio: similar a una conversación telefónica múltiple con sonido.
4. Teleconferencia de vídeo: similar al videoteléfono en una conversación múltiple con imagen y
sonido.
5. Whiteboard: permite la generación de un documento escrito por parte de varios participantes
colectiva y simultáneamente.
6. Mud: juego en tiempo real con múltiples participantes.
No se ha incluido en esta lista el servicio probablemente más utilizado: aquello que se conoce
como navegar. La navegación en Internet se basa en el hecho de que tanto la información como los
servicios tienden a estar integrados en una única estructura. A causa de esta integración establecida
mediante múltiples enlaces y referencias, los servicios (modos de acceso), los menús (opciones de
acceso) y la información en sus múltiples codificaciones de texto, imagen, sonido, imagen en
movimiento o realidad virtual (acceso propiamente dicho) se organizan como una misma cosa,
denominada WWW (World Wide Web).
A diferencia de una búsqueda, en la que se sabe lo que se quiere encontrar y se utiliza un
procedimiento automático, la navegación sitúa al navegante en posición de protagonista de su
propio deambular. La navegación, efectuada a base de elecciones continuas e indeterminadas, es
una interactuación con la red mediante la cual el navegante no queda reducido a mero espectadorconsumidor del espectáculo telemático, sino que asume el papel de protagonista de su propia
aventura y virtualmente construye su propia historia. La posibilidad de navegar confiere a Internet
una componente simbólica, puesto que funciona como una puerta abierta a la posibilidad de nuevas
experiencias en un mundo inagotable de realidades virtuales que sin embargo conectan con las
subjetividades y crean realidades materiales. El hecho de que en muchas ocasiones la navegación
sea impracticable (lentitud, fallo en los enlaces, precio...) no es necesariamente un argumento contra
las espectativas que ofrece, de la misma manera que el aburrimiento que produce la televisión no
necesariamente conlleva dejar de verla.
Internet (como muchos otros) es un producto anónimo producido por una empresa social (sin patrón
concreto) y en cuya producción han participado muchos trabajadores que no han recibido por su
trabajo salario directo alguno. Este producto social, como se ha relatado más arriba, ha sido
posteriormente privatizado y apropiado por empresas concretas merced a determinaciones políticas,
o sea, de poder. Que sea un producto social del cual nadie se preocupa lo más mínimo por saber
quién fue su inventor, descubridor o constructor no significa que sea un producto autónomo o
neutro. Puesto que en el actual ciclo productivo el producto debe ser vendido mientras es fabricado,
y fabricado mientras es vendido, no pueden secuenciarse con nitidez los tiempos y lugares de la
producción, distribución, venta, consumo y reproducción. El trabajo se parece cada vez más a
aquello que consigue su objetivo en el propio realizarse y cuyo resultado es lo único que debe ser
controlado, o sea, la prestación de un servicio, aunque paradójicamente el salario se continúa
midiendo por el tiempo de trabajo puesto a disposición de la empresa concreta, y la relación salarial

continúa siendo la fuente del derecho a muchas de las prestaciones sociales: subsidio de desempleo,
viudedad, subsidio agrario, subsidio por enfermedad, jubilación... Pero la capacidad de trabajar
(ganas, necesidad, miedo, entusiasmo, aceptación, autoimplicación, adiestramiento...) no está dada
de una vez por todas, y como cualquier otro producto debe ser producida y producida, además,
continuamente. Su producción no puede ser una producción "en serie", sino que debe tener la
apariencia de una autoimplicación libre que permita a cada cual "construirse a sí mismo" pero
construirse, eso sí, para ser productivo. En este proceso de producción de la capacidad de trabajar
entra todo, y por supuesto entran actividades consideradas por "el sentido común" como no
productivas, tales como hacer el amor, conversar con un amigo o ver la televisión. Producir no
puede ser identificado con cansarse o con percibir un salario y, contradiciendo las tesis oficiales, lo
difícil dada la naturaleza del actual ciclo productivo esestar en paro, aunque evidentemente todas las
formas que reviste el trabajo no son igualmente penosas, insalubres, peligrosas, humillantes o
aburridas.
La actual manera de producir (llámese descentramiento de la actividad productiva, posfordismo,
productividad social...) precisa y produce redes: redes para hacer negocios, pero también para
producir capacidad de trabajo y, por supuesto, para enrolar fuerza de trabajo eludiendo la relación
salarial, la negociación colectiva y los límites legales del despido. Si la complejidad de las redes
sociales puede ser metida toda ella en una red telemática, si es posible (y deseado) dejar de producir
o, como alguien ha dicho en Internet, si la realidad sólo tiene píxels, ésa es la cuestión.

New Tags

I agree with terms of use and I accept to free my contribution under the licence CC BY-SA.