ESTUDIO Y PROPUESTA PARA IMPLANTAR UNA UNIDAD DE INTELIGENCIA FINANCIERA EN VENEZUELA

 

 

 

Autores:
Ing. Ingmar B. Ramírez P. CI Nº V-6.556.963
Ing. Jessi E. Latorre Q. CI Nº V-5.151.696

Tutor:
Ing. Daniel Luzardo CI Nº V-5.971.339
Master Administración de Empresas, IESA
Especialista en Equipos Rotativos, USB

Para optar al título de Magister Scientiarum

 

Caracas, 03 de Marzo del 2.000.


Se prohibe la reproducción parcial o total sin la debida autorización de los autores
Copyright @ 2000-03-08
Venezuela


Dedicatorias

Dedicamos esta obra a:

Mari Pili, por ser una gran compañera, apoyo y esposa (Jessi).
Daniel Alejandro, Jesús David y María Carolina; mis hijos, mi inspiración (Jessi).
A mis padres, quienes siempre creyeron en mí (Jessi).
A mis suegros que siempre me apoyaron en todo (Jessi).

A mi esposa Shahara por su amor incondicional (Ingmar).
A mis padres, quienes siempre han sido ejemplo en mi vida (Ingmar).
A mi hermano Rudyard por su apoyo y cariño (Ingmar).
A mi compañero de Tesis, por su apoyo y paciencia (Ingmar).


Agradecimientos

Agradecemos sinceramente:

Al ingeniero Daniel Luzardo, nuestro profesor, tutor y amigo.
Al ingeniero William Núñez, por su apoyo en todo momento durante todo el postgrado.
Al ingeniero Arturo Fajardo por su apoyo y conocimientos durante los estudios de postgrado.
Al profesor Fidias Arias por su colaboración en la redac­ción del presente informe.
A todos los profesores que tuvimos durante nuestros estudios de postgrado.


Identificación del trabajo

Titulo del proyecto: Estudio y propuesta para implantar una unidad de inteligencia financiera en Venezuela.

Nombre de los autores: Ingeniero Ingmar Bayardo Ramírez Pérez e Ingeniero Jessi Ernando Latorre Quintero.

Dirección de los autores: Ambos autores residen en Caracas, D. F. Venezuela y se les puede localizar por su e-mail o su página en el Web Site con las siguientes direcciones:

iramirez@une.edu.ve, http://www.une.edu.ve/iramirez
jesselatorre@hotmail.com, http://www.geocities.com/jesselatorre.

Números telefónicos de los autores: +58 14 320.03.64; +58 2 2618927; +58 2 782.86.96 y +58 16 622.59.39

Datos de la empresa: El proyecto en cuestión no es financiado por empresa alguna, sino que esta diseñado para satisfacer la necesidad del medio económico a nivel nacio­nal y avalado por la CoNaCUID.

Nombre del tutor: Ingeniero Daniel Luzardo.

Dirección del tutor: Caracas, Venezuela.

daniel@etheron.net; http://www.une.edu.ve/~dluzardo.

Número telefónico del tutor: +58 2 204.11.51; +58 16 611.23.35


Resumen del trabajo

El presente trabajo se realizó con la finalidad de ser expuesto como un tema de tesis para obtener el título de Master en Gerencia Tecnológica. Los autores en cuestión son ingenieros electrónicos que trabajan en distintas empresas venezolanas ocupando cargos de liderazgo, además de tener una dedicación parcial a la docencia en universidades venezolanas. La elección del tema se hizo tomando en cuenta la necesidad de una tarea que nos permitiera demostrar la capacidad de gestión de recursos tecnológicos en función de una realidad nacional y contemporánea para lograr un producto viable, factible y útil realmente. Para ello se consideró no solo la capacidad tecnológica de que disponen los autores y su nuevo marco de conocimientos gerenciales, sino que además se tomo en cuenta la necesidad del cliente por un producto que se pueda mantener en el tiempo, actualizándose fácilmente para conservar su capacidad competitiva sin necesidad de inversiones que impacten significativamente la estabilidad económica del cliente o que impliquen cambios importantes de reingeniería, estableciendo un esquema de mínima inversión con máxima ganancia económica y de valor agregado. Siempre se mantuvo una visión gerencial con la idea de presentar un trabajo que permita la interrelación de ambos mundos: el de la tecnología como gestora del ingenio, del conocimiento y de la innovación de máquinas y herramientas, así como el mundo de la gerencia como gestora de recursos y estrategias económicas.

El problema de investigación planteado, es de carácter práctico y busca satisfacer una necesidad surgida últimamente en el sector económico y financiero venezolano debido a la invasión mediante múltiples y sofisticados mecanismos, de los mercados financieros con capitales mal habidos. Esta realidad tiene una trascendencia internacional ya que las organizaciones delictivas que practican estas técnicas, son unidades muy bien organizadas que poseen poder tecnológico, económico e influencias en todos los estratos sociales y políticos; a la vez se encuentra enmarcado como un problema mundial que afecta y es afectado por lo que se sucede en las distintas naciones. La globalización y sus implicaciones y herramientas hacen cada vez más difícil la lucha contra el flagelo de la legitimación de capitales, por lo que se hace cada vez más importante el disponer de una plataforma tecnológica que permita un control preventivo y curativo para el saneamiento y mantenimiento de los esquemas financieros y valores económicos de la moneda sin perder el balance entre el valor del dinero su poder adquisitivo real.

En el presente proyecto se plantea una propuesta que pretende ser económica y viable, actualizable y segura, confiable y eficiente para la instalación de una plataforma de información mediante la tecnología de las comunicaciones digitales, de la seguridad de la información y de los programas manejadores de bases de datos para una Unidad de Inteligencia Financiera en Venezuela. Se plantea una interfase hombre máquina que resulte amigable, que no requiera de gran entrenamiento o especialización; que no involucre a una nómina importante de personal especializado en el mantenimiento de la misma y donde la integración con los usuarios foráneos no implique modificaciones importantes de sus sistemas ya instalados, operando, planificados o existentes.

Esta planteada para utilizar tecnología de punta en hardware y software, haciendo uso de los medios de transferencia de información más económico y universales como la Internet y con los protocolos de seguridad y comunicaciones propios de este medio; garantizando la estabilidad de la plataforma mediante la correcta integración de tecnologías, los mejores mecanismos propietarios de seguridad de la información, la universalidad de las comunicaciones que se obtiene con los navegadores y el mejor soporte que pueden ofrecer los ambientes abiertos que posibilitan la integración de distintos sistemas operativos existentes en el mercado y ya instalados para así minimizar en gastos (ocasionados por la compra de nuevas plataformas) que pudieran impactar en las unidades de trabajo privadas o públicas, minimizando los trámites burocráticos y dejando el mínimo de lagunas en el proceso de implantación de las normas reguladoras de la información a manipular y elección del ente centralizador como el de mayor importancia y jerarquía en la red planteada.


Tabla de contenido

Introducción

Capítulo I

El problema de investigación
Planteamiento del problema
Formulación del problema
Objetivos
Objetivo General
Objetivos específicos

Justificación
Delimitación
Limitaciones

Capítulo II

Marco teórico
Antecedentes

Mecanismos de procesamiento de la información financiera en materia de legitimación de capitales
Estructura de los dispositivos de lucha contra legitimación de capitales
Naturaleza y origen de la información financiera
Las declaraciones obligatorias
Las declaraciones automáticas
Evaluación de la eficiencia de los sistemas automáticos de información financiera
Las declaraciones de sospechas
Evaluación de la efectividad de las declaraciones
Las bases de datos informáticos
Los intercambios de información entre servicios
Técnicas de análisis de la información sobre legitimación de capitales
Índole y tipo de los organismos encargados de procesar la información financiera
La opción policial
La opción judicial
La opción administrativa
El papel que se asigna a los organismos centrales
Situación mundial y características de la delincuencia organizada
Principales Organizaciones delictivas en el mundo
Situación de la Banca Venezolana
Recomendaciones de organizaciones y grupos internacionales
La unidad contra la legitimación de capitales
Unidades administrativas que realizan operaciones bancarias o financieras en contacto directo con los clientes
Institución a cargo de la unidad de Inteligencia Financiera en Venezuela
Principales organismos con el rol de garantes a Controlar el sector privado en Venezuela
Lógica de la estructura funcional de la red
Redes y protocolos
Protocolos TCP/IP
Las redes locales
Protocolo Internet (IP)
Protocolo de resolución de direcciones (ARP)
Clases de direcciones en Internet (direcciones IP)
DNS y direcciones IP
Protocolo de control de la transmisión (TCP)
Protocolo UDP
La propuesta
Características del diseño
Criterios del diseño
Hipótesis
Variables del sistema
Análisis de las variables
Glosario de términos

Capítulo III

Marco metodológico
Clasificación de la investigación
Propósito o razón de la investigación
Nivel de conocimiento de la investigación
Diseño o estrategia de la investigación
Población y muestra
Técnicas e instrumentos de recolección de datos
Técnicas de procesamiento y análisis de datos

Capítulo IV

Los aspectos administrativos de la investigación
Análisis técnico económico y relación costo beneficio
La gestión financiera del proyecto
Recursos a utilizar
Relación costo beneficio

Conclusiones

El impacto social y económico
Conclusiones

Bibliografía

Referencias bibliográficas

Notas auxiliares

Apéndices
Telemática, autopista de la información e Internet
Gopher
Sistemas operativos
Tecnología ADSL
Anexos
Buscadores
Metabuscadores
Medición de creación del valor a través de la gerencia del conocimiento
Web: a new way to deliver technical information
The Internet multicast from ITS: How it was done and implications for the future
A fast and secure track to hypertext
On the trail of the Internet Gopher
Una biblioteca puede estar dentro de su computadora
Global risk management for Internet users
Internet Group progress on secure IP
The Internet: A decentralized network of networks
Traveling the information highway
Otros soportes en disco
Contenidos legales y normativos que sustentan la investigación
Carta magna
Hardware de computadora (parte I)
Hardware de computadora (parte II)
Hardware de computadora (parte III)
Hardware de computadora (parte IV)
Software para respaldo energético
Linux (artículo I)
Linux (artículo II)
Linux (artículo III)
Sitios virtuales para aprender (sitio I)
Servidores (artículo I)
Servidores (artículo II)
Enrutadores Intel (artículo I)
Enrutadores Intel (artículo II)
Internet Router Layers (artículo)
Redes virtuales
Licencias GNU (artículo)
El factor conocimiento (artículo)
El Disco duro portátil (artículo)
Iniciación con StarOffice (artículo)
Nuevas tecnologías de telecomunicaciones disponibles (CANTV)


Introducción

El presente trabajo de tesis de grado, tiene como finalidad poder presentar los resultados y conclusiones obtenidos por los tesistas, de un estudio gerencial que permite exponer los mecanismos y actividades que consideraron de importancia y necesarias para poder implantar la denominada “Unidad de Inteligencia Financiera” (UIF) en Venezuela. Para lo cual fue necesario considerar la actualidad política, social y económica de la nación con la finalidad de entregar un producto (propuesta) viable técnica y económicamente, haciendo uso de un programa de gestión de los recursos disponibles para lograr resultados reales, confiables, efectivos y eficientes en tiempo y espacio. Los resultados del presente estudio servirán de base teórica para generar las recomendaciones necesarias que serán presentadas ante el Congreso de la República Bolivariana de Venezuela para su posterior evaluación y ejecución, siempre considerando los posibles cambios que se puedan emanar del marco jurídico de la nueva constitución que se discutió en el seno de la Asamblea Nacional Constituyente (ANC) y que con la ayuda de Consejo Nacional Electoral fue aprobado en un referéndum consultivo popular por el pueblo venezolano el 15 de diciembre de 1999 como la futura carta magna.

En el presente documento se utiliza una terminología propia del tema y aceptada con alcance internacional por los organismos mundiales relacionados con el medio; por lo tanto, se hace necesario identificarse con la terminología para poder comprender con mayor claridad la tesis en todos sus aspectos. En primer lugar, es importante y necesario acotar que los términos ‘Lavado de Dinero’ o ‘Blanqueo de Dinero’ presentaban problemas de aceptación y alcance jurídico en los marcos legales nacionales e internacionales; por tal motivo los organismos internacionales establecieron y dieron aceptación legal, correcta y de alcance internacional al término ‘Legitimación De Capitales’[1] .

La legitimación de capitales, es el termino adoptado por el legislador de la Ley Orgánica sobre Sustancias Estupefacientes y Psicotrópicas (LOSEP), en una reforma parcial del 30 de septiembre de 1.993, para referirse al delito de "lavado de dinero", "lavado de capitales" o "lavado de activos" o "blanqueo de dinero" términos estos usados por los organismos supragubernamentales y la mayoría de los países.

Por cuanto el legislador de la ley Orgánica especial (LOSEP) tipificó el delito grave y autónomo de legitimación de capitales, por el cual se financia y cumple sus compromisos económicos la industria transnacional ilícita del trafico de drogas, considero inapropiado utilizar esos términos propios del lenguaje común, del argot policial y lo sustituyo por un lenguaje forense, es decir jurídico que se regiera al modelo típico del delito: La delincuencia organizada lo que tiene como objetivo es la reinserción del dinero habido por sus actividades delictivas al circuito económico legal y, como tal es la aplicación de esos recursos a fines productivos, es un medio para que el financista o el traficante reinvierta su capital para producir mas mercancía ilícita o para diversificar su capital.

Es un delito complejo de la delincuencia organizada, por cuanto el conjunto delictual opera como tal en el todo o en cada una de sus partes (fases de producción), entra dentro del proceso de producción ampliada de capitales (dinero-mercancia-dinero-mercancia-dinero) crecimiento compulsivo de capital.

A los efectos de la LOSEP se entenderá por legitimación de capitales la disposición, traslado o propiedad de bienes o su conversión que proceden de alguna actividad delictiva del trafico de drogas. Así como la ocultación o encubrimiento de su verdadera naturaleza, origen, localización, disposición, movimientos de la propiedad o derechos sobre los mismos.

En definitiva es la transformación de dinero obtenido en forma ilegal en valores patrimoniales o recursos con el propósito de aparentar que se trata de una ganancia legal, mediante la introducción en el circuito financiero mundial con el fin de separarlo de su origen ilícito, para reproducirlo y cumplir sus compromisos ilegales, sin correr riesgos. La legitimación de capitales es un enriquecimiento ilícito de particulares y su origen o fuente puede provenir no solo del trafico de drogas, sino de cualquier actividad delictiva del crimen organizado: corrupción, armas, juego, trata de personas, robo, ilícito y trafico de automóviles, etc. Para mayor información ver exégesis Art. 37 de la LOSEP en el documento " Contenidos legales y normativos que sustentan la investigación".

La Unidad de Inteligencia Financiera (UIF) en Venezuela es un proyecto ambicioso de alcance multidisciplinario, que involucra el uso de lo mejor de la tecnología de la información como primera herramienta para el éxito. En sus inicios ésta coordinada por la Comisión Nacional Contra el Uso Ilícito de las Drogas (CoNaCUID) y en forma directa será útil para diferentes entes gubernamentales que en un momento dado operan como una única unidad de trabajo indisoluble e interdependiente como lo son la CTPJ (Cuerpo Técnico de Policía Judicial), la DiSIP (Dirección General Sectorial de los Servicios de Inteligencia y Prevención), la DIM (Dirección de Inteligencia Militar), la GN (Guardia Nacional), la ONIdEx (Oficina Nacional de Identificación y Extranjería), la fiscalía general de la república, el SeNIAT (Servicio Nacional Integrado de Administración Tributaria), etcétera. En forma indirecta servirá a entes internacionales como la Interpol, el FBI (Federal Bureau and Investigation) o la DEA (Drug Enforcement Agency) por ejemplo, ya que llenará el vacío existente en el territorio nacional por la falta de una herramienta confiable que permita supervisar e identificar actos delictivos de legitimación de capitales foráneos y locales. Se trata de una figura que consiste en una plataforma de tecnología de punta que permita detectar situaciones fuera de lo normal o sospechosas en el campo financiero y así combatir el problema de legitimación de capitales; hay que entender que no es posible combatir a los grupos mafiosos e ilegales sin las herramientas tecnológicas adecuadas, para lo cual se hace necesario ser tan rápidos y si es posible más rápidos en el manejo de la información que la velocidad con que se mueven los grupos ilícitos en los procesos de legitimación de capitales.

Desde ya hace bastante tiempo, inclusive desde antes de la invención de las computadoras, existía el problema de legitimación de capitales; pero es en estas últimas décadas que se ha observado un incremento exponencialmente significativo y acelerado de esta actividad, ocasionando problemas importantes en el sector financiero y en las cuentas de capital de las naciones en casi todas partes del mundo. Esta actividad es ilegal y tiene su raíz en los negocios obscuros que buscan hacer legal sus ingresos o ganancias fuera de la intervención de unidades reguladoras estatales, logrando tener un alcance que traspasa el ámbito del comercio local, regional y nacional, adquiriendo así una proyección internacional. En estos casos se trata de entidades bien organizadas, sofisticadas y altamente tecnificadas, que establecen imperios delictivos mediante el uso de diferentes herramientas para lograr un enriquecimiento ilícito.

El evidente desarrollo tecnológico de estas últimas décadas a impulsado el desarrollo en los procesos de intercambio comercial, permitiendo establecer un escenario caracterizado por un desarrollo económico y social donde los más privilegiados son las naciones desarrolladas, éste nuevo entorno tecnológico, económico y social estableció un nuevo escenario mundial que conocemos como la globalización y que hoy todavía está en creciente auge, donde nuevos actores hacen acto de presencia en forma impactante y significativa. Pero así como la tecnología permitió y permite el desarrollo de naciones, incrementando su capacidad económica y estableciendo mercados sin fronteras espaciales, así mismo los imperios del crimen organizado se han aprovechado de esta realidad para sus propios intereses que no guardan relación con un orden social y económico preestablecido y legítimo.

Debido a que se trata de procedimientos no normados legalmente, estos capitales no son susceptibles de ser comprobados y declarados, por lo que no generan tributos al estado y deterioran sensiblemente el esquema financiero de una sociedad; pues al tratarse de capitales no controlados por ninguna banca o entidad reguladora, se convierten en capitales ficticios pero de impacto real o más bien deberíamos decir que se trata de dinero verdadero que se inyecta a un sistema financiero sin autorización de los entes reguladores y que por tal razón no forman parte de un reflejo real del valor del dinero en un momento dado y de su presencia cambiaría internacional, afectando significativamente la estabilidad económica de una nación al establecerse fugas de capital hacia fuera y generación de dinero no reciclado en el mercado interno a la vez que genera papeles comerciales u otras formas de dinero que no se encuentran respaldados por figuras reales como el oro de las arcas en las reservas internacionales o las monedas de la banca nacional reguladora.

Debido a este incremento en el ámbito mundial de las actividades financieras de legitimación de capitales por parte de organizaciones delictivas con diferentes ordenes y niveles de especialización, han surgido innumerables situaciones difícilmente controlables que a su vez han generado preocupación en los distintos estratos de los gobiernos y sistemas financieros mundiales.

Los primeros textos internacionales que han tipificado la legitimación de capitales datan de 1988[2]. En estos momentos la mayoría de los países occidentales han establecido mecanismos de represión, es por eso que es importante analizar cuáles son las opciones que se han aplicado para organizar y estructurar el procesamiento de la información sobre este tipo de actividades.

El presenta trabajo está distribuido en 4 capítulos, el primero trata de la realidad del problema describiéndolo, formulándolo y avalando la necesidad del trabajo mediante una justificación para la inversión en el proyecto. En el segundo capítulo se plantean los conocimientos teóricos y técnicos necesarios para entender el problema, así como la solución propuesta; aquí incluimos un glosario de términos, así como una recomendación de las variables e indicadores a considerar al momento de implantar la plataforma con personal técnico especializado. Para el tercer capítulo establecemos las consideraciones metodológicas que garantizan la calidad y veracidad del texto como documento científico, identificamos las estrategias, técnicas, población, muestra y valores de metodología científica consideradas y por considerar. En el último Capítulo presentamos lo relacionado con la gestión financiera del proyecto, un análisis administrativo del mismo con la presentación del costo estimado en bolívares con referencia a una tasa cambiaria más estable en el tiempo como son el US$ y el Euro, de manera de poder ajustar la inversión en el tiempo para la ejecución del proyecto propuesto.


Capítulo I  

El problema de investigación

 

 

Planteamiento del problema

En la actualidad, muchos países tercer mundistas en su mayoría, no cuentan con una infraestructura adecuada para la supervisión y control de capitales habidos mediante procedimientos ilícitos; hablamos de la manipulación de dineros procedentes de enriquecimientos ilícitos como producto de negociaciones o mecanismos de comercio que son penados por la ley en varios países del mundo.

Venezuela no escapa de esta realidad, ya se detectan con mayor frecuencia actividades relacionadas con comercios ilícitos, generalmente asociados con el narcotráfico. En general se ha detectado a Colombia como el país productor de muchas drogas ilícitas que son exportadas a distintas naciones en el mundo haciendo uso de Venezuela como el puerto de distribución y donde USA es el principal consumidor mundial.

Es por ello que se hace necesario establecer un esquema de supervisión que permita detectar esta actividad de legitimación de capitales, así como mecanismos de control y represión que permitan eliminar y penar estas actividades ilícitas. Pero para poder detectar estas actividades se necesita de una plataforma tecnológica que garantice la disponibilidad de información real y confiable en forma oportuna.

Se necesita de una plataforma que implica tecnología de punta en el área de las bases de datos distribuidas, que opere en una red de comunicaciones digitales y en tiempo real de ser factible; solo así será posible detectar el crimen y al criminal a tiempo, atraparlo y castigarlo.

 

Formulación del problema

¿Cuáles deben de ser las herramientas y recursos mínimos necesarios que deberán ser considerados, utilizados e instalados para poder crear la UIF (Unidad de Inteligencia Financiera) en Venezuela y así poder disponer de una plataforma que permita detectar en forma eficiente los distintos mecanismos de enriquecimiento ilícito para que puedan ser procesados por el sistema legal venezolano?

 

Objetivos

Objetivo General

Establecer y generar las recomendaciones con relación a cuales serían los mejores mecanismos que deberían utilizarse para instalar y poner en operación la Unidad de Inteligencia Financiera en Venezuela, con la finalidad de hacerla eficiente de acuerdo a los recursos tecnológicos disponibles en el mercado y en concordancia con los programas de austeridad económica que maneja en la actualidad el gobierno nacional, conservando la legitimidad establecida por el sistema legal venezolano que actualmente se encuentra en período de ajuste mediante el esquema de la nueva constitución planteada por la ANC (Asamblea Nacional Constituyente) ya extinta.

 

Objetivos específicos

  • Identificar los indicadores que se deberán manejar como alarmas de situación tendientes a posibles programas de enriquecimiento ilícito.
  • Identificar los mecanismos más comunes que se aplican para la legitimación de capitales por parte de sistemas, empresas y personas que practican una economía basada en enriquecimientos ilícitos.
  • Identificar cuáles son los mecanismos de mayor éxito y seguros que se utilizan en diversas partes del mundo en la lucha contra la legitimación de capitales.
  • Establecer cuáles serían los mejores mecanismos para el acopio de información desde las entidades financieras sin que se vean involucradas y con la suficiente eficiencia que haga posible una información confiable, confidencial y veraz en tiempo real.
  • Establecer cuáles serían las mejores herramientas y mecanismos de integración tecnológica que mejor se adaptan a la necesidad del cliente y a la realidad nacional venezolana en la actualidad y a futuro.
  • Identificar el posible impacto social y económico de la propuesta.
  •  

    Justificación

    El problema de legitimación de capitales esta afectando significativamente el sistema financiero de muchos países y Venezuela no escapa de esta situación. Actualmente Venezuela atraviesa un período de dificultades económicas debido a gestiones administrativas erráticas. Los acreedores exigen sus pagos y esto obliga a un sacrificio social y económico que se refleja en un letargo en el proceso de desarrollo tecnológico, económico y social, haciendo más cuesta arriba la salida del subdesarrollo. Es por ello que debemos ahorrar y hacer multiplicar nuestros ingresos mejorando la macroeconomía para incentivar la microeconomía; esto significa que es vital controlar las fugas de capitales reales en todas sus formas, incluyendo aquellas actividades que afectan el esquema financiero nacional, aunque el presente estudio y propuesta solo trate del problema de capitales mal habidos; pues el tratar el esquema financiero en su totalidad, no es el objetivo planteado y además requeriría de muchos recursos en tiempo y estrategias tecnológicas arrojando resultados de mayor complejidad debido a su extensión.

    Es necesario entonces eliminar los procesos de legitimación de capitales para sanear la economía nacional y hacer frente a los compromisos internacionales en forma legal y eficiente, garantizando así las oportunidades de desarrollo económico y social sostenido que significan una mejora de la calidad de vida del venezolano.

    Es verdad que existen muchas empresas o proyectos que necesitan de gerentes de calidad para la gestión de recursos en la forma más acertada con la finalidad de llevar a feliz término el objetivo primario del proyecto con el mínimo de inversión y el máximo de utilidad, eficiencia y calidad; sin embargo, los costos asociados al recurso humano y al proceso de investigación y desarrollo a veces hacen no viables estas actividades.

    En la actualidad, un trabajo de postgrado en el campo de la gerencia tecnológica involucra una serie de actividades que en algunas ocasiones resulta insostenible por las implicaciones económicas que esta lleva asociada. Es por ello que este proyecto esta orientado a desarrollar una propuesta en función de un estudio preliminar, para así garantizar menores inversiones con mayor productividad dentro de los parámetros de excelencia y calidad mínimos necesarios.

     

    Delimitación

    El proyecto en cuestión se encuentra delimitado en un primer plano al contexto nacional, dentro del territorio geográfico y fronteras políticas de Venezuela, tal y como hasta ahora se la conoce internacionalmente; su aplicación será bajo un programa de estado que está siendo patrocinado por la CoNaCUID en la forma de un proyecto de ley actualmente en discusión y estudio.

    Como segundo factor delimitador se establece que el trabajo estará enmarcado en el contexto de la legitimación de capitales, tal y como se entiende y expone en la introducción y en el marco teórico. Es por ello que nos limitamos al estudio de la forma o modalidad de supervisión y control de capitales habidos fraudulentamente, como producto de colocación en mercados que puede causar volatilidad e inestabilidad macro y micro económica de una sociedad. Esta aclaración se hace en virtud de que los mercados monetarios disponen de herramientas electrónicas muy sofisticadas, que permiten la libre movilidad de capitales que pueden afectar la estabilidad económica, sin que por ello se trate de capitales fraudulentos; o sea, el mercado puede ser afectado en forma legítima así como en forma ilegítima, por lo que solo nos limitamos a los mercados donde se trabaja con capitales ilegítimos, mal habidos y fraudulentos.

    El resultado del presente proyecto sentará las primeras bases que servirán para comprender y hacer las recomendaciones necesarias para el establecimiento de una unidad de trabajo cuya meta es la de la lucha contra legitimación de capitales en Venezuela; estos resultados y recomendaciones se discutirán en el Congreso de la República para su aprobación e inmediata ejecución.

    El espectro de acción incluye al sistema jurídico a través de las instituciones policiales, así como al financiero y bancario nacional, el cual será fiscalizado según recomendaciones en concordancia con el marco legal vigente. El alcance de trabajo es de carácter gerencial y busca establecer los lineamientos y proponerlos para instalar una plataforma mínima necesaria con la finalidad de poder detectar movimientos inusuales de cantidades de dinero de procedencia dudosa según indicadores y parámetros previamente establecidos. La propuesta como tal no incluye el trabajo de instalación, solamente hace referencia a las estrategias y recursos a utilizar por los lideres del proyecto.

    A pesar del carácter nacional de la propuesta, una vez instalada y convertida en una realidad, la misma no solo servirá a los entes estatales reguladores involucrados, sino que además podrá servir de herramienta de ayuda e información para unidades de control de acción internacional, ya que podrá proveer de datos sobre actividades que se desarrollan en el territorio nacional pero que tienen su centro de operaciones en otras naciones. Está claro que los procesos de enriquecimientos ilícitos basados en legitimación de capitales son ejecutados por organizaciones altamente sofisticadas que no conocen de fronteras políticas y que disponen de un tamaño o maquinaria muy extensa, diversificada e instalada en distintas ubicaciones geográficas alrededor del mundo.

     

    Limitaciones

    Existe una gran cantidad de eventos limitantes que dificultaron y pueden dificultar el éxito del proyecto en un 100%; entre las mayores y más impactantes limitaciones experimentadas, radica en la actualidad del producto que se desarrolla, pues para que el producto sirva a sus propósitos, debe ser actual con relación al medio donde se utiliza. Dado que el producto que se plantea en el presente trabajo se ajusta a una herramienta con implicaciones tecnológicas de vanguardia así como resultados apoyados en un marco jurídico del entorno geográfico donde se utiliza, entonces se encuentra condicionado al hecho muy contemporáneo que se experimenta en nuestro territorio nacional, donde el marco jurídico está en cambio y todavía se encuentra en un estado de entropía que espera alcanzar su estabilidad en el transcurso del presente año, según informó el poder ejecutivo. También resulto muy difícil poder obtener información relacionada con los mecanismos utilizados por los agentes ilícitos así como por los agentes lícitos en los procesos de legitimación de capitales y detección de estos procesos respectivamente. También existe gran cantidad de limitaciones a considerar al momento de instalar la UIF ya que se trata de manejo de datos en tiempo real que arrojaran resultados a muy corto plazo (inmediato plazo) si se desea que se cumplan los objetivos de la existencia de la UIF en Venezuela. Entre las limitantes de mayor impacto para el éxito del presente proyecto se encuentran la inmensa cantidad de información que se deberá recopilar y manipular, de la necesidad de una plataforma tecnológica muy robusta y capaz de procesar rápidamente y sin errores esta gran cantidad de información y por último de la competencia de terceros como las entidades bancarias y financieras así como de organizaciones estatales y gubernamentales para poder colaborar y sin trampas para facilitar información actualizada y en tiempo real sin afectar sensiblemente sus recursos y los nuestros.


    Capítulo II  

    Marco teórico

     

     

    Antecedentes

    Debido al incremento en el ámbito mundial de las actividades financieras de legitimación de capitales por parte de organizaciones delictivas con diferentes órdenes y niveles de especialización, han surgido innumerables situaciones difícilmente controlables que a su vez han generado preocupación en los distintos estratos de los gobiernos y sistemas financieros mundiales. En estos momentos la mayoría de los países occidentales han establecido mecanismos de represión, es por eso que es importante analizar cuáles son las opciones que se han aplicado para organizar y estructurar el procesamiento de la información sobre este tipo de actividades.

    El establecimiento de estructuras contra la legitimación de Capitales a nivel de los Estados es relativamente reciente. Los primeros textos internacionales que han tipificado datan de 1988[3]. En Europa desde el 10 de junio de1991 se obliga a declarar las operaciones sospechosas, de igual forma que en los Estados Unidos con organizaciones como la red de represión de delitos financieros (FINCEN), del departamento del tesoro de los Estados Unidos y Canadá con el centro australiano de análisis e informes sobre transacciones (AUSTRAC). En Europa, la obligación de declarar operaciones sospechosas emana de la directiva europea de 10 junio de 1991 y sólo se ha ido incorporando progresivamente a las legislaciones nacionales. En el momento en que la mayoría de los países occidentales han establecido mecanismos de represión, es instructivo analizar cuáles son las opciones que se han aplicado para organizar y estructurar el procesamiento de la información sobre la actividad de legitimación de capitales.

    En los Estados Unidos, la FINCEN (Financial Crimes Enforcement Network. Red de represión de delitos financieros) se estableció en 1990 [4] para servir de enlace entre el sector bancario y financiero, las autoridades de tutela y los servicios de policía. La red, integrada por aproximadamente 200 empleados de diferentes ministerios [5] depende del Departamento Federal del Tesoro (U.S. Departament of Treasury); el FINCEN es un centro de análisis de informaciones, según los propios términos de su primer Director, B.M. Bruh. No forma parte de sus atribuciones realizar investigaciones, aunque jurídicamente tenga la capacidad de investigar al igual que los demás servicios de represión [6]. Sin Embargo, apoya activamente a los servicios de investigación brindándoles conocimientos especializados, información y técnicas que les permitan desmantelar las redes de legitimación de capitales aconsejándoles a todo lo largo de las investigaciones. Su papel principal es el de ser un órgano de reunión de información. En efecto, la FINCEN ha desarrollado una red de conexión con las bases de datos existentes, asimismo, ha creado su propia base de datos, principalmente alimentada por las declaraciones obligatorias hechas por los bancos. Para poder efectuar el intercambio de información acerca de las operaciones internacionales de legitimación de capitales, ha firmado acuerdos de cooperación con un gran número de servicios homólogos con ubicación en todo el mundo.

    En Francia, el servicio TRACFIN (Traitement du Reseignement et Action Contre les circuits Financiers clandestins) se estableció en virtud de la ley de 12 de julio de 1990 (artículo 5). Sometido a la autoridad del Ministerio de Finanzas, su papel se limita a la explotación directa e inmediata de la información que suministra la banca. Esta, desde 1993, debe declarar a TRACFIN las operaciones que le parezcan provenir del tráfico de drogas o de alguna actividad de la delincuencia organizada [7]. Se realiza entonces una investigación previa, que no requiere autorización de la policía judicial. Si existen elementos concordantes que permiten suponer que la operación se vincula con una actividad de legitimación de capitales, el expediente se transmite al Fiscal de la República territorial competente, quien decide qué curso se habrá de seguir.

    El AUSTRAC (Austarlian Transaction Reports and Analysis Center), organismo australiano de la lucha contra la legitimación de capitales, se estableció en 1988 para aplicar la ley de presentación de informes acerca de las transacciones financieras, de 1988. En varios sentidos, se parece a la FINCEN, el servicio de los Estados Unidos. En efecto, los legisladores australianos han establecido un sistema de declaración automática de las transacciones en efectivo y de las transferencias internacionales, además de la declaración de las operaciones sospechosas. En consecuencia, el papel de AUSTRAC consiste, en primer lugar, en reunir las declaraciones de las instituciones financieras, incorporarlas en la base de datos del servicio y analizarlas sistemáticamente o, en casos seleccionados, para detectar las operaciones ilícitas. Sin embargo, en la legislación se le ha encomendado también un papel normativo y de supervisión de la banca, respecto de la conformidad con las disposiciones jurídicas acerca de la legitimación de capitales. El AUSTRAC ha hecho esfuerzos particularmente importantes en cuanto al desarrollo y la interconexión de las bases de datos. Esa información es después puesta a la disposición de los servicios de represión o de los organismos gubernamentales cuyo acceso está autorizado, así como de los homólogos extranjeros, con los cuales se han concertado acuerdos.

    La CTIF (Cellule de Traitement des Informations Financiéres), de Bélgica es un ejemplo de servicios cuya independencia está garantizada por al legislación, establecida en virtud de la ley de 11 de enero de 1993, disponiendo de personalidad jurídica, lo cual le confiere una autonomía presupuestaria y de decisión. Según la legislación esa célula, sometida al control de los Ministros de Justicia y Finanzas, está al mando de un magistrado del poder judicial, perteneciente al ministerio público. La tarea principal de la CTIF es centralizar y procesar las declaraciones de sospechas. No es un organismo de investigación y se contenta con transmitir al Fiscal del Rey los casos cuyas primeras investigaciones hayan confirmado su carácter dudoso.

    El MOT (Meldpunt Ongebruikelijke Transsacties) de los Países Bajos, fue establecido en virtud de una ley promulgada en 1993 y que se encarga de regular las declaraciones de transacciones no habituales; es un organismo independiente, administrado por el Ministerio de Justicia pero cuyo director se nombra por decreto real en virtud de una recomendación del Ministerio de Justicia, con la anuencia del Ministro de Finanzas. El MOT, al igual que sus homólogos europeos, es un organismo encargado de reunir y analizar las declaraciones obligatorias. Sin embargo, la masa de información que recibe es más voluminosa, porque no se refiere a las declaraciones de operaciones sospechosas, sino de transacciones no habituales, una buena parte de las cuales resultará a fin de cuentas legítima.

    El 14 de mayo 1997 se expuso ante la Organización de los Estados Americanos, un corto documento denominado "Documento de trabajo para el proyecto de constitución de la red interinstitucional contra la legitimación de capitales" [8], presentado por la delegación de Venezuela. Este documento esbozaba la necesidad de establecer una red de legitimación de capitales en Venezuela y los organismos que deberían participar en ella.

     

    Mecanismos de procesamiento de la información financiera en materia de legitimación de capitales

    La lucha contra la legitimación de capitales sólo será eficaz si los servicios encargados de combatirlo tienen acceso a la información sobre las transacciones financieras y los movimientos internacionales de fondos y capitales en todas sus modalidades. Hasta un período reciente, el secreto bancario constituía un gran obstáculo para recopilar información financiera, lo cual dificultaba luchar contra las bien organizadas estructuras de poder económico de los traficantes y las organizaciones delictivas. Sin transformar a los banqueros en confidentes de la policía, fue preciso encontrar un medio jurídico que permitiese a los servicios de represión seguir la pista de las operaciones de legitimación de capitales, cuando la comunidad internacional reconoció la importancia de esas actividades. Desde finales del decenio 1980, la mayoría de los Estados que han aprobado una legislación sobre legitimación de capitales, han establecido un sistema que permite a las instituciones financieras comunicar a las autoridades ciertas operaciones bancarias y, en particular, toda operación que pueda encubrir en forma evidente o sospechosa, actos de legitimación de capitales que incluso muchas a veces obligan a la banca a hacerlo.

    El tipo de declaraciones que deberán presentar esos organismos depende de la legislación vigente. Podrá consistir en una declaración sistemática de ciertas operaciones, incluso no sospechosas, como la transferencia de dinero en efectivo, o en una declaración tan sólo de las operaciones cuyo contexto permita sospechar un movimiento de dinero mal habido al banquero u operador. En todos estos casos, esta declaración deberá "procesarse", a fin de determinar con precisión si se trata de un caso de legitimación de capitales, para lograr la posterior detención de los autores y el decomiso de los bienes de origen delictivo.

     

    Estructura de los dispositivos de lucha contra legitimación de capitales

    Estas dependerán fundamentalmente de las opciones adoptadas en cada país con respecto a lo siguiente:

  • El tipo y la cantidad de información de que disponen los servicios de lucha.
  • La estructura de la organización encargada de la lucha contra la legitimación de capitales.
  • Las funciones correspondientes a dicha organización.
  •  

    Naturaleza y origen de la información financiera

    Este punto merecería de por sí un estudio completo y con mayor grado de profundidad, lo cual no es el objetivo del presente trabajo; sin embargo, no podemos dejar pasar este tema sin comentarlo, pues es parte importante de las bases teóricas necesarias para poder comprender y así desarrollar una acertada propuesta sin omitir en forma significativa la información necesaria que pueda justificar cada una de las partes del trabajo expuesto. En efecto, la eficiencia de los servicios de lucha contra la legitimación de capitales depende básicamente de la información que puedan recopilar y de la que éstos se nutren. Las unidades contra la legitimación de capitales pueden en realidad adolecer de una grave falta de información debido a la carencia de medios jurídicos o prácticos para recopilarla, así como algunas veces de una falta de imaginación para ir a reunirla. Pero también pueden adolecer de un exceso de información, que transforma al organismo de análisis en un órgano de almacenamiento de información que, a fin de cuentas sólo podrá utilizar cuando sepa lo que busca, lo que traduce la actividad en una operación correctiva sin carácter preventivo.

    La información emanará de tres fuentes fundamentales

  • Las declaraciones obligatorias formuladas por las personas y entidades regidas por la ley.
  • Las diversas bases de datos informatizados a las que pueda tener acceso.
  • Los intercambios de información con otros servicios de lucha u otras administraciones.
  • Las declaraciones obligatorias

    De ordinario se presentan dos ejemplos relativos a las declaraciones que deberán hacerse a las autoridades:

      La ley impone la transmisión sistemática de informaciones relacionadas al conjunto de las operaciones que suelen servir para la legitimación de capitales: en la práctica, los movimientos de fondos en efectivo y las transferencias internacionales de fondos.

      Las profesiones previstas en la ley sólo rinden cuenta a las autoridades de las transacciones que parezcan tener vinculo con una operación de legitimación de capitales: es la declaración de sospechas.

    Las declaraciones automáticas

    Algunas legislaciones han previsto un sistema en virtud del cual las personas y entidades regidas por la ley (con mayor frecuencia los organismos bancarios o financieros) deben declarar sistemáticamente al servicio encargado de procesarlas el conjunto de las operaciones que de ordinario son los vectores de legitimación de capitales: transacciones en dinero efectivo, importación o exportación de divisas, transferencias de fondos de estado a estado, etc el servicio central se encargará entonces, al analizar el conjunto de los datos recopilados, de detectar directamente las operaciones sospechosas.

    Es la opción elegida por los legisladores estadounidenses y australianos. El motivo de esa elección consiste en que la revelación se basa en criterios objetivos (la naturaleza de la operación) y no en criterios subjetivos (su aspecto sospechoso). Su carácter automático no hace recaer en el banquero una decisión en cuanto a la oportunidad de la declaración y así da menos lugar a la corrupción o simplemente a errores de apreciación. La transmisión de esas declaraciones puede hacerse en gran escala, por medios informatizados. Por último, este procedimiento facilita a los servicios de análisis una cantidad de información que les permite detectar operaciones que podían carecer de todo.

    Pero el talón de Aquiles de este sistema radica en la cantidad de información que genera, de modo que su procesamiento es muy difícil y oneroso. Por ejemplo: “la red de represión de delitos financieros” (FINCEN), del departamento del tesoro de los Estados Unidos, procesa actualmente 950.000 operaciones mensuales (11,5 millones anuales) al igual que el Centro australiano de análisis sobre transacciones (AUSTRAC) se enfrenta a la misma cantidad masiva de información, lo que implica elevados costos por concepto de medios informáticos y personal especializado en la materia."[9].

    Una solución para disminuir la cantidad de información es fijar una cuantía por debajo de la cual las declaraciones no son obligatorias. Los Estados Unidos han fijado 10.000 dólares americanos, lo que ha permitido "contener" el volumen de información a las cifras indicadas supra. Sin embargo la reacción de los legitimadores de capitales no se hizo esperar y enviaron a los bancos multitudes de pequeños depositantes, que depositaban sumas inferiores al tope fijado, en diferentes cuentas de un gran número de bancos. Las sumas se concentran luego mediante una transferencia a una cuenta central y después se remiten al extranjero para continuar el ciclo de legitimación de capitales. Es la técnica del "fraccionamiento", que ahora se combate con otras medidas y medios.

    Evaluación de la eficiencia de los sistemas automáticos de información financiera

    ¿Asegura este sistema una mayor eficiencia en la represión? A falta de evaluación completa, es imposible afirmarlo, dado que las situaciones son tan difícilmente comparables. Es verdad que, en teoría, el análisis sistemático de los movimientos no da lugar al azar en la investigación de las operaciones fraudulentas. En la práctica, no es seguro que los medios tecnológicos más avanzados permitan efectuar ese análisis, ya que las declaraciones no son la única fuente de información que se ha de confirmar y analizar.

    Las declaraciones de sospechas

    Esta opción impone al profesional, ya sea intermediario financiero, banquero asegurador, la obligación de analizar las transacciones a su cargo, y decidir si acaso podrían encubrir actuaciones sospechosas, en cuyo caso habrá de declarar a la autoridad designada por la ley. Su responsabilidad es grave y corre un doble riesgo: el de dejar pasar una operación fraudulenta y participar involuntariamente o por negligencia en las actividades de una organización delictiva, además de exponerse a tener que justificar que, no obstante su sagacidad, se le ha engañado y que su abstención de declarar no era voluntaria (probatio diabolicum).

    El segundo riesgo, que afecta al intermediario financiero impulsado por la preocupación de no ser sancionado penalmente, es el de declarar con demasiada rapidez como sospechosas operaciones que más tarde se revelarán como perfectamente legítimas. Fuera del hecho de que corre el riesgo de perder un buen cliente, implica a éste en una investigación penal con motivo de la cual su participación, declarada como sospechosa por el banquero, puede parecer delictuosa al investigador.

    Si el organismo encargado de centralizar las declaraciones es un servicio administrativo cuyo cometido es filtrar las declaraciones, el riesgo es menor, pues a este servicio le incumbe, después de haber confirmado las sospechas, la decisión de transmitir los hechos a la justicia. Pero cuando la autoridad designada como el interlocutor de las instituciones financieras es la justicia o la policía, la revelación de los hechos determina ipso facto una orientación penal[10].

    No obstante, esta opción es la adoptada por la mayor parte de los estados. Ella implica una participación activa de los bancos y de los profesionales que intervienen, pero esta participación satisface tanto al sector financiero y bancario, que no desea convertirse a pesar suyo en instrumento de organizaciones delictivas, como a las autoridades gubernamentales, que quieren fundar una autentica asociación en la lucha contra el blanqueo y estimular a los profesionales a "lavar su ropa sucia en casa", más que a imponer autoritariamente un mayor control sobre sus actividades.

    Pero este sistema se basa en dos condiciones previas:

      En una u otra forma, es imprescindible poder verificar que los profesionales cumplan con su obligación de vigilancia.

      Hay que velar por una formación adecuada del personal encargado a fin de familiarizarlos con los métodos y el "perfil" de los blanqueadores, formación que debe ponerse al día en forma permanente para actualizar los conocimientos

    En efecto, la falta de formación del personal designado por la ley puede tener una repercusión directa sobre la eficacia del conjunto del sistema de declaraciones de sospecha y dar lugar a:

      Un porcentaje escaso de declaraciones, ya que los bancos ignoran sus obligaciones jurídicas o no tienen ningún conocimiento de los métodos que permiten descubrir una operación sospechosa. Sin duda, ese es el caso de Portugal en que las instituciones financieras sólo revelaron 32 operaciones sospechosas en 1995.

      Una gran cantidad de declaraciones procedentes de los intermediarios quienes, perplejos por falta de indicaciones precisas, piensan que, en la duda, más vale pecar por exceso que por defecto. En el Reino Unido, el organismo central ha tenido que efectuar una campaña de sensibilización y de formación para hacer disminuir el número de declaraciones, que ascendían a 15.000 en 1994 [11] y que no siempre se justificaban, ni mucho menos.

    Evaluación de la efectividad de las declaraciones

    En cuanto a las cifras de las declaraciones que han dado lugar a enjuiciamientos penales, éstas no aportan elementos de respuesta complementarios. Las diferencias de un país a otro pueden encontrar explicación en la eficacia de las medidas preventivas adoptadas por las autoridades superiores, en la eficacia de las medidas preventivas adoptadas por las autoridades superiores, en la eficacia de las medidas o la importancia de los medios de la investigación, en la gama de operaciones abarcadas por la infracción de legitimación de capitales, etc. No cabe duda que el porcentaje de éxito es muy reducido, a pesar de los medios empleados y su magnitud. A juicio de los interlocutores que se entrevistaron para efectuar el presente estudio, en la actualidad el problema central ya no consiste forzosamente en identificar los casos de legitimación de capitales, sino en probar judicialmente la infracción, identificar a los autores y lograr que sean condenados.

    Las bases de datos informáticos

    Cada vez más estados se basan en análisis de las informaciones procedentes de las bases de datos informatizadas para luchar eficazmente contra el bloqueo. El acceso a esas bases de datos permite sostener y potenciar las sospechas presentadas a los organismos centrales, como también desbaratar los montajes financieros complejos que caracterizan a las operaciones de blanqueo, establecer el vínculo entre una operación y una persona determinada, y confirmar las fuentes de información. Así pues, Australia y los Estados Unidos se han apoyado en el desarrollo de poderosas bases de datos, que a su vez están interconectadas con otras bases de datos externas que alimentan a las primeras y a las que tienen acceso los servicios antibloqueo, para tramitar mejor los volúmenes de información que reciben y desempeñar lo más eficazmente posible la función de filtro que sus legislaciones nacionales no han atribuido a los bancos.

    Esas bases de datos reciben la información electrónicamente (informes de los bancos) o manualmente. Están conectadas con las bases de datos de los servicios de policía, tributarios, aduaneros, pero también con los registros comerciales e incluso con los anuarios electrónicos o los periódicos.

    El establecimiento de semejantes infraestructuras exige inversiones muy cuantiosas. Algunos estados tropiezan en esta actividad con disposiciones de la ley nacional. En Francia, por ejemplo, la ley "informática y libertad" dificulta, si no imposibilita, en nombre de la protección de las libertades individuales, la interconexión de los registros informáticos.

     

    Los intercambios de información entre servicios

    En el plano nacional, el intercambio de información entre los servicios de represión se garantiza en general mediante una disposición jurídica que facilita al servicio de lucha antiblanqueo un acceso libre a las informaciones que pueda necesitar [12]. La "espontaneidad" de este intercambio de informes dependerá de la forma en que el servicio esté estructurado administrativamente. Cuando el servicio está incorporado a una administración, como la policía, éste utiliza los mecanismos habituales de esa administración para dialogar con los demás servicios.

    Cuando se trata de un servicio autónomo, la comunicación suele ser más difícil o en todo caso menos natural; a las habituales rivalidades entre administraciones se añade entonces la desconfianza instintiva hacia un servicio cuya política de utilización de la información entregada es ignorada. Muchos servicios han resuelto esta dificultad integrando a su personal a un funcionario de cada una de las administraciones que participan en la lucha contra el blanqueo. El funcionario se encarga entonces de la vinculación con su administración de origen y utiliza sus contactos personales para hacer circular la información en ambos sentidos. Se dan casos en que las vinculaciones personales bien valen todas las redes de bases de datos.

    En el plano internacional, fuera de los servicios secretos que a veces se utilizan el la lucha contra la delincuencia organizada, las únicas vías de información son, las de la Interpol y la Organización Mundial de Aduanas. Las autoridades judiciales, como la mayoría de las demás administraciones, no tienen redes internacionales de cambio de informaciones. Todavía no existe una estructura internacional de lucha contra el blanqueo que permita a los servicios de represión intercambiar informaciones sobre las operaciones internacionales de blanqueo en curso.

    A pesar de todo, para permitir este intercambio de informaciones, los estados han firmado, en cada caso, acuerdos bilaterales de servicio a servicio. Eso no es satisfactorio, porque se sabe que las transferencias internacionales de fondos constituyen uno de los métodos básicos del blanqueo, y que la información sobre esos movimientos queda confinada dentro de las fronteras de los estados. En la actualidad, parece ser que la comunidad internacional quiere movilizarse para poner en debido orden esos asuntos, como da testimonio la iniciativa reciente del Grupo Egmont.

    Las declaraciones obligatorias, las bases de datos informatizados y el intercambio de datos de servicio a servicio son las fuentes principales de información de que se disponen los estados en la lucha contra el blanqueo. Estas informaciones deben procesarse, aclararse y potenciarse para establecer con certidumbre los casos de blanqueo. Esta es la función de los organismos de tratamiento de la información financiera.

    Técnicas de análisis de la información sobre legitimación de capitales

    Las técnicas de análisis de esta información bruta son diversas: el análisis puede ser sistemático y cruzado con otras fuentes de información: bases de datos de servicios de policía, repertorio de sociedades, etc. El análisis puede efectuarse por objetivos, en función de criterios inherentes a la persona (nacionalidad, antecedentes judiciales, etc.) o a la propia operación, que dan un carácter "sensible". Por último, la selección puede hacerse en forma aleatoria o por muestreo. Pero esta información también puede quedar en estado bruto, luego captarla o no por medios informáticos, y servir de prueba o de medio de investigación en una etapa ulterior, cuando el servicio haga investigaciones sobre una red de legitimadores de capitales o sobre mecanismos de legitimación de capitales muy complejos.

     

    Índole y tipo de los organismos encargados de procesar la información financiera

    Es capital que circule rápidamente la información acerca de las actividades de blanqueo de dinero. Asimismo, es necesario que esa información pueda analizarse fácil y sistemáticamente y compararse con las demás fuentes de información. Precisamente ese es el objeto de las "dependencias de información financiera" (Financial Intelligence Units, FIU)[6] . Desde la concertación de los primeros acuerdos internacionales relativos a la lucha contra el blanqueo de dinero, más de 20 Estados del mundo[7] han establecido esas dependencias. En su mayor parte, son países europeos que han actuado sobre la base de la directiva de las comunidades europeas de 1991. Sin embargo, cabe observar que, en esa directiva si bien, se establecen obligaciones precisas en cuanto a las medidas que deben adoptar las instituciones financieras para prevenir y detectar las operaciones de blanqueo de dinero, no dice nada, sin embargo, acerca de la forma de las estructuras encargadas de reunir y procesar las declaraciones obligatorias en el caso del sector bancario y financiero. En efecto, según la Comisión Europea[8] , debido al principio de las relaciones subsidiarias, no figura entre las atribuciones de la Unión amortizar las medidas relativas a la índole y la organización de los servicios encargados de reunir esa información. De ello resulta una gran diversidad que no facilita necesariamente la comunicación entre ellos.

    De un país a otro, la organización de los servicios de procesamiento de la información se basa en general en una de las tres opciones siguientes:

      Facilitar a un servicio de policía, especializado o no, para reunir declaraciones relativas a las transacciones sospechosas; esa opción tiene la ventaja de que permite basarse en las estructuras existentes para establecer mecanismos de lucha y permite también utilizar los conocimientos de la policial para reunir y procesar la información;

      Encargar a las autoridades judiciales la tarea de procesar esa información y darle el curso conveniente; las autoridades judiciales garantizan la independencia necesaria para obtener la confianza en bancos; son las autoridades encargadas de dar a los delitos y faltas el tratamiento que merecen;

      Por último, establecer un organismo especial encargado de filtrar y analizar la información financiera. Es la opción que parece haber elegido la mayoría de los Estados.

    El modo en que se organiza un servicio de lucha contra el blanqueo de dinero no depende solamente de la forma orgánica que se le dé, sino también de las funciones que se le encomienden. En ese caso, también divergen entre sí las opciones elegidas por los Estados que han establecido estructuras de lucha. La dependencia encargada de la lucha contra el blanqueo de dinero puede desempeñar solamente un papel de reunión y selección de las declaraciones que recibe, o en cambio, puede ser un órgano de definición y coordinación de las políticas de lucha contra el blanqueo de dinero o incluso tener vastos poderes de investigación. El inventario de las funciones que pueden encomendarse a esos servicios permite formarse una idea más precisa de lo que pueden ser, porque su estructura administrativa puede no bastar para definirlos.

    La opción policial

    La vía más natural cuando se trata de organizar la lucha contra la legitimación de capitales es, por cierto, encomendar esa tarea a un servicio de policía ya existente o especialmente establecido para ello. Las fuerzas policiales poseen en la mayor parte de los casos unidades encargadas de luchar contra la delincuencia financiera, así como redes de información interna y contactos internacionales de intercambio, sobre todo a través de la INTERPOL, que es fácil poner a disposición de la lucha contra la legitimación de capitales. Es una solución económica en función del presupuesto del Estado, pero también se trata, por muchos aspectos, de una garantía de eficacia.

    El principal inconveniente de una elección de este tipo se relaciona con la propia índole de los servicios de policía: se trata de servicios de investigación y represión que forman parte integrante del sistema de justicia penal. Por ello, lo que solamente es una sospecha para el banquero puede convertirse para la policía en un indicio e incluso una presunción. Por ello, las instituciones financieras manifiestan cierta reticencia a colaborar con un servicio con el cual no están familiarizadas y para la cual, la mayoría de las veces, el término colaboración tiene una connotación negativa.

    Esta opción es empleada en países como: El Reino Unido, Italia, Alemania, Japón, Suecia, Austria o Finlandia.

    La opción judicial

    Otros Estados han preferido nombrar autoridades judiciales como el destinatario de las declaraciones de sospechas. En la mayor parte de los casos son países de civil-law o, sea de derecho civil. En efecto, en esos Estados, las autoridades judiciales, en la práctica los servicios del Fiscal General, dominan las acciones penales, así como pueden dirigir los órganos de investigación que les permitan ordenar y seguir las investigaciones penales. La índole particular de las funciones del Fiscal general, las garantías constitucionales de independencia que ofrecen y el grado de confianza que pueden suscitar en la opinión pública explican la preferencia por ese sistema.

    La opción judicial, debido a las garantías de independencia que ofrece, inspira sin ninguna duda más confianza a los medios financieros que la opción policial, pero es también porque el ministerio público puede filtrar las declaraciones en virtud de su poder de oportunidad en relación con los juicios. Por ello, las declaraciones de sospechas que podrían haberse hecho como consecuencia de un error de juicio de un banquero no desemboca necesariamente en una investigación penal.

    Sin embargo, esa opción judicial presenta dos inconvenientes importantes, que son la falta de medios operacionales de la institución para organizar y centralizar la información y la falta de una verdadera red internacional que rápidamente permita rastrear las operaciones de legitimación de capitales transfronterizas.

    Esta opción es la empleada por países como: Portugal, Dinamarca, Suiza, Islandia y Luxemburgo.

    La opción administrativa

    La mayoría de los países que han organizado la lucha contra la legitimación de capitales han establecido servicios de investigación autónomos como los citados en los antecedentes de este estudio. Sin embargo, a pesar del término genérico de servicio autónomo, existe una distinción entre los servicios que, aunque son autónomos, dependen de un ministerio de tutela y los servicios completamente independientes.

    Indudablemente, el modelo administrativo es el que asegura la mejor relación entre el mundo bancario y financiero y las autoridades de investigación y procesamiento judicial. Asegura también una clara distinción entre los casos de sospecha, que se tratan a nivel administrativo, y los de infracción, que se encomiendan a los servicios de represión. Esos organismos, establecidos la mayor parte de las veces en los órganos de tutela de los bancos (banco central o ministerio de finanzas), tienen un conocimiento profundo del funcionamiento del sector bancario y de los mecanismos financieros, lo cual les permite desentrañar mejor las operaciones de legitimación de capitales.

    En cambio, el modelo administrativo presenta tres problemas:

      La mayor parte de los Estados han excluido de la esfera de lucha contra la legitimación de capitales las infracciones fiscales: ahora bien, puede darse el caso de que una información sometida a esos servicios, si no desemboca en un caso de legitimación de capitales, sí revele un caso de fraude fiscal. Los profesionales del sector bancario, que no desean convertirse en asistentes de los servicios de impuestos, tienen a veces escrúpulos en transmitir informaciones a un servicio que depende de la misma administración de tutela que los servicios de recaudación de impuestos.

      La legitimación de capitales a veces tiene vínculos no naturales con la política y, con la ayuda de la corrupción, se infiltra en los mecanismos del Estado en muchos países. Las investigaciones realizadas en ciertos países europeos acerca de la financiación de los partidos políticos ha mostrado qué vínculos pueden existir entre la política, el dinero ilícito y la delincuencia organizada. Por ello cabe temer que un servicio de lucha contra legitimación de capitales bajo la tutela del Estado se vea expuesto a las presiones del poder político.

      La legislaciones más recientes tienden a imponer la obligación de presentar declaraciones de sospechas a los integrantes de profesiones cada vez más numerosas, como las de administrador de casas de juego, anticuario, comerciante de artículos de lujo, etc. El ministerio de finanzas no es el interlocutor natural de esas profesiones y aun menos su órgano de tutela.

    Esta opción es la empleada por países como: Estados Unidos, Francia, Australia, Mónaco o Eslovenia.

    El papel que se asigna a los organismos centrales

    Los servicios de lucha contra la legitimación de capitales puede cumplir funciones sumamente variables de un país a otro. Ello depende de la concepción que tengan las autoridades del papel de ese servicio. En efecto se puede concebir como un simple buzón de cartas destinado a recoger informaciones relativas a las operaciones de legitimación de capitales, cuyas atribuciones no se superponen con las de otros servicios de represión. Si no, se lo puede considerar como el motor de la política nacional contra la lucha contra legitimación de capitales, encargado de definir esa política y asegurar su ejecución. Entre ambos casos, existe una amplia gama de posibilidades que se aplican en función del contexto o las tradiciones jurídica y administrativas del estado.

    Es posible agrupar de la siguiente manera las atribuciones que pueden tener los organismos de lucha contra la legitimación de capitales:

      La reunión y centralización de la información:
        Se trata de la función básica, para no decir la razón de ser, del conjunto de los servicios establecidos. Cuando en la legislación no prevé esa centralización, las informaciones permanecen dispersas, la comparación y el seguimiento de las operaciones de legitimación de capitales resultan difíciles e incluso imposibles.
      La selección y análisis de la información:
        La selección y el análisis, que prolongan de manera natural el papel de centralización y reunión, son en general una función básica de los servicios centrales. Ese papel de filtración es capital; las instituciones financieras transmiten al servicio informaciones en bruto, cuya característica común es que reúnen un conjunto de elementos que convierten la operación bancaria en sospechosas. Después del análisis, se verá que varias operaciones están perfectamente justificadas y son legítimas. De ese análisis se desprenderán también modelos de métodos de legitimación de capitales que los servicios estudiarán con atención, para adaptar permanentemente a ellos sus medios de lucha.
      La información:
        La noción de información es variable; puede abarcar las funciones de reunión y análisis de declaraciones de sospechas descritas supra, y pude definirse más estrictamente como la reunión de información por medios del espionaje: infiltración de redes de legitimación de capitales, recurso a informadores o incluso montaje de operaciones clandestinas.
      El intercambio de datos a nivel nacional e internacional:
        Se trata de una función capital de los servicios de procesamiento de la información. Sin embargo, pocas legislaciones nacionales confieren oficialmente al servicio central el papel de "centro de enlace".
      Además de otras atribuciones como:
        Las investigaciones y los enjuiciamientos.
        Análisis estratégico, investigación y centro de conocimientos especializados.
        La sensibilización y la capacitación.
        Control del cumplimiento general de las entidades afectadas por la ley.
        El papel de consejero.
        Coordinación de las medidas gubernamentales; definición y ejecución de una política de lucha contra la legitimación de capitales; reglamentación de la lucha contra la legitimación de capitales.

     

    Situación mundial y características de la delincuencia organizada.

    Los directivos y empleados de empresas privadas o gubernamentales, como actores dentro del Sistema Financiero Mundial, debemos conocer la situación en la cual nos encontramos, a fin de comprender el por qué de las obligaciones y cargas que nos imponen el estado venezolano, y otros estados con los cuales realicemos operaciones bancarias o financieras, ocasionales o permanentes, a los efectos de actuar con diligencia debida en la prevención y control del delito grave de legitimación de capitales.

    Somos parte del sistema-situación-mundial en el cual, a causa de la globalización política y económica, los grupos de delincuencia organizada también se han extendido e internacionalizado, como efecto indeseado de este fenómeno global contemporáneo. Por ello la Comisión de Prevención del Delito y Justicia Penal de la Organización de las Naciones Unidas, en su 3er. período de sesiones, en el párrafo 5 del Anexo de su Proyecto de Resolución I, aprobada por el Consejo Económico y Social como Resolución 1994/12, destaca: “La delincuencia organizada es, por su propia naturaleza, un fenómeno generalizado. Por consiguiente la Comunidad Internacional tiene que encontrar modos de cooperar, no sólo para luchar con el comportamiento ilícito habitual, sino también para impedir que el fenómeno se haga extensivo a nuevas esferas en las que son débiles los mecanismos de defensa contra la propagación de esas actividades delictivas” [13].

    Esta situación ha conducido a los Estados, en la relación “iniciativa” – “respuesta pertinente”, en cuanto relación interactivo entre actores sociales, a diseñar políticas públicas y estrategias, para poder prevenir, disuadir y reprimir, a una categoría de delincuentes que rebasan las características de la delincuencia común que conocemos, la de agresión en primer grado, convirtiéndose en organizaciones que causan “delitos de segundo tipo”, como el terrorismo, el tráfico de drogas y los delitos propios de la delincuencia organizada (tráfico de armas, de blancas, corrupción, juego ilegal, inmigrantes o emigrantes, etc.) Son delincuentes con recursos y fuerza para vulnerar las características del poder político de los estados: La Universalidad, la Exclusividad y la Inclusividad.

    La ONU considera que estas organizaciones de delincuencia son “... todas ellas de complejidad creciente, con gran actitud de aprender y adaptarse, con sentido de visión estratégica. Organizaciones caracterizadas por su complejidad y flexibilidad de estructura orgánica, elástica y eficiente, con técnicas de gestión eficaces, con programas de investigación y desarrollo” [14].

    La expresión “delincuencia organizada” se utiliza para referirse a las personas que se asocian con la finalidad de dedicarse a una o varias actividades, de forma habitual o permanente, actuando como empresas, suministrando bienes y servicios ilícitos o bienes lícitos que han sido adquiridos por medios ilícitos como hurto, robo, fraude. La delincuencia organizada “...representa prácticamente en todos los casos la prolongación de un sector del mercado legítimo a esferas normalmente proscritas. Sus puntos fuertes emanan de los mismos principios básicos que rigen el espíritu empresarial en el mercado legítimo, a saber: la necesidad de mantener y ampliar la cuota de mercado que se posee” [15].

    Como cualquier otra empresa, el negocio de la delincuencia organizada exige aptitudes empresariales, una especulación considerable, y alta capacidad de coordinación, todo ello sumado a la utilización de la violencia y la corrupción para viabilizar y facilitar la realización de las actividades. Cabe considerar también los elementos de jerarquía, creatividad, evolución y adaptación dinámica. Su ánimo es el lucro ilegal, el delito como negocio; con sistemas de gestión eficientes y eficaces basados en generosos incentivos económicos y duros castigos; con medios eficaces de información y contrainformación; y un considerable poder para la recuperación rápida y eficaz, cuando la represión del Estado o las guerras inter organizaciones les causan gravas daños.

    Principales Organizaciones delictivas en el mundo

    Las principales organizaciones delictivas son:

    Todas las organizaciones delictivas citadas operan con alianzas estratégicas, cada vez más extendidas, con los grupos nacionales de los otros países para acceder al conocimiento y la experiencia sobre las condiciones locales, a efectos de comercialización y distribución de productos delictuosos, de aumentar la capacidad para eludir la represión, diversificar el riesgo, y utilizar los canales de distribución para aprovechar la diferencia de márgenes de beneficios en los distintos mercados, y a la vez utilizar toda la red organizativa para legitimar capitales.

    Estas características de las organizaciones delictivas transnacionales ponen de manifiesto para el empleado bancario el amplio alcance de la amenaza que constituye para los estados, los gobiernos nacionales, la economía y las empresas lícitas, la existencia de organizaciones con capacidades de poder y fuerza equiparables a la capacidad represiva estatal. Representan amenazas graves contra la dignidad y seguridad de las personas; la soberanía, seguridad y estabilidad de los estados; el funcionamiento normal de las instituciones bancarias, financieras y comerciales, el orden y la estabilidad del sistema internacional.

    Esta capacidad pluriofensiva de la delincuencia transnacional organizada, con la posibilidad de ampliar actividades y minar la seguridad y la economía de los países, es mucho más grave en los países en desarrollo como Venezuela y el resto de América Latina.

    La explicación de esta situación es indispensable y necesaria para que el banquero, los directivos y los empleados bancarios comprendan el por qué de las obligaciones, cargas y deberes cuyo cumplimiento es exigido por las leyes de nuestros respectivos países.

    Se comprende así el porque de la convención de las Naciones Unidas contra el tráfico de sustancias estupefacientes y sicotrópicas [16]; de la declaración de Basilea; de las cuarenta recomendaciones del grupo especial de expertos financieros; del reglamento modelo de la CICAD-OEA; y las diecinueve recomendaciones del grupo especial de expertos del Caribe. Por ello los Estados han considerado que es indispensable levantar un sistema de defensa social con dispositivos legales, reglamentarios y administrativos, destinados a dificultar el empleo de ciertos servicios (como los bancarios y financieros) para fines delictivos, sistema que tiene que ser respaldado por medidas penales. El derecho penal sigue siendo indispensable para dar credibilidad a la labor de disuasión. Toda medida contra la legitimación de capitales ha de verse como parte de una política penal coherente y mundial que debe dar prioridad a las estrategias de los estados contra las formas más graves de delincuencia que afectan a la sociedad mundial, por lo que existe el reconocimiento mundial de la urgencia de ciertas medidas prioritarias.

    Los 15 países mas industrializados se reunieron en París el 18 de Septiembre de 1989, con el fin de intensificar la coordinación internacional contra el delito grave de legitimación de capitales, y reconocieron que “Los responsables políticos se dieron cuenta, en efecto, de que la hecha concernía sobre todo al tráfico de los productos mismos y muy poco a los circuitos financieros”. Con esta declaración los responsables políticos se convencen de que el eje estratégico u ordenador de la delincuencia transnacional organizada lo constituyen el financiamiento y la legitimación de capitales que sostienen y alimentan las actividades delictuales de estas organizaciones. Así surgen como prioritarias las siguientes acciones a desarrollar por los Estados:

    1. La penalización de la legitimación de capitales como delito grave, sea producto del tráfico de drogas o de otras actividades delictivas.
    2. Limitaciones al secreto bancario, lo cual es indispensable para la acción eficaz, junto a la colaboración sincera de la banca y las demás instituciones financieras.
    3. Identificación e información a las autoridades competentes sobre operaciones sospechosas.
    4. Reglamentaciones más perfectas para todas las entidades comerciales o profesionales que efectúan operaciones financieras, a fin de evitar que las actividades de legitimación de capitales se desplacen de las instituciones bancarias y financieras estrictamente supervisadas a entidades comerciales y profesionales con insuficiente o nula supervisión.
    5. Decomiso de activos, y aplicación de medidas cautelares o provisionales como el embargo o “congelación de activos”.
    6. Mecanismos extensos y rigurosos de cooperación internacional.

     

    Situación de la Banca Venezolana

    Como consecuencia de la situación mundial antes descrita, y de las estrategias contra la legitimación de capitales que los estados y las organizaciones supra-gubernamentales han diseñado en el marco de la política criminal mundial, los directivos y empleados de cualquier organización deben tener en cuenta:

     

    Recomendaciones de organizaciones supra-gubernamentales y grupos internacionales

    Las instituciones, en la medida de lo posible, establecerán las medidas adicionales que considere necesarias y oportunas como demostración de su diligencia debida y buena fe, en función de las recomendaciones de:

    Las instituciones, desarrollarán, en la medida de lo posible, todas aquellas normas adicionales a la LOSEP y a la resolución 333/97 de la superintendencia de bancos y otras Instituciones Financieras, que le puedan ser exigidas por el ordenamiento legal de los Estados Unidos de América, en cuanto a transacciones con, o a través de sus sucursales agencias o corresponsales en ese país, como son:

     

    La unidad contra la legitimación de capitales

    La unidad contra la legitimación de capitales tiene como misión detectar, analizar, y controlar las operaciones bancarias o financieras, así como hechos presuntamente relacionados con la legitimación de capitales, para minimizar el riesgo de que determinada institución pueda ser usado como intermediario financiero por los legitimadores de capitales, y comunicar oportuna y eficazmente al presidente del comité contra la legitimación de capitales, toda la información relativa a operaciones sospechosas o hechos relacionados con el delito de legitimación de capitales, provenientes de los clientes, de los empleados o de terceros contratados. Tendrá las siguientes funciones básicas: La unidad contra la legitimación de capitales tendrá las siguientes funciones básicas:

     

    Unidades administrativas que realizan operaciones bancarias o financieras en contacto directo con los clientes

    Las unidades administrativas en contacto directo con los clientes son los nodos de la Red Bancaria y financiera, por lo que tienen las responsabilidades y funciones más importantes en el nivel operativo, para realizar las actividades de prevención, control y fiscalización sobre las operaciones o transacciones que puedan ser utilizadas para la comisión del delito grave de legitimación de capitales. En tal sentido deberán rápida y diligentemente reportar a la unidad contra la legitimación de capitales, la información a que haya lugar cuando ocurra alguna de las siguientes situaciones[18]:

  • Situación de préstamos.
  • En las cuentas de prestamos se observa que:
  • Legitimación de capitales a través de actividades internacionales.
  • En estas situaciones se observa que:

     

    Institución a cargo de la unidad de Inteligencia Financiera en Venezuela

    La institución a cargo de asistir, asesorar, supervisar, evaluar, regular y sancionar a los sujetos obligados con el rol de garantes, será seleccionada o creada por el alto gobierno, que debido a lo complicado y variante del ambiento político y electoral de nuestro país en los dos últimos años no podemos determinar sobre quien caerán dichas responsabilidades.

    Inicialmente el fundamento legal de esta red interinstitucional contra la legitimación de capitales, está previsto en el título VIII, capitulo I de la prevención, control y fiscalización contra la legitimación de capitales, artículo 213 de la LOSEP; por el cual dispone que el ejecutivo Nacional, por órgano de los ministerios u organismos específicos competentes que la norma indica, coordinados por la Comisión Nacional Contra el Uso Ilícito de las Drogas (CoNaCUID o CNA). Por esto que la institución inicial que debería encargarse de crear una red con el propósito de estructurar y sistematizar las acciones que las diversas instituciones pública y privadas venezolanas con el marco legal actual debería ser la CNA, que hasta ahora a sido delegada desde el 17 de junio de 1998 a la Superintendencia de Bancos las funciones de unidad de Inteligencia Financiera, durante la dirección de Carlos Tablante, sin embargo el nuevo gobierno y congreso a elegirse en mayo del presente año podría determinar quien será la institución a cargo.

    Principales organismos con el rol de garantes a Controlar sector privado en Venezuela

    Principales organismos públicos en Venezuela con lo que se constituirá la red interinstitucional contra la legitimación de capitales

    Ilustración 1. (Fuente: los autores)

     

    Lógica de la estructura funcional de la red

    Para que el sistema propuesto pueda funcionar en forma coordinada que garantice un nivel de calidad deseado e indispensable en el alcance del mismo, es necesario establecer un ambiente jerárquico que permita el control en cada una de las etapas de trabajo, identificando a cada uno de los actores en función de su posición dentro de la estructura o línea de producción, lo que se traduce en una jerarquía estructural. Para ello se propone el siguiente esquema:

    Ilustración 2. (Fuente: los autores)

     

    Protocolos TCP/IP

    Introducción

    La Internet es una red de redes, miles de redes basadas en tecnologías heterogéneas se enlazan en la Internet ofreciendo un conjunto homogéneo de servicios. Mas aún en la Internet se encuentran ordenadores muy diversos con sistemas operativos diferentes, desde ordenadores de sobremesa PC o Macintosh hasta grandes sistemas IBM o Digital. Los protocolos de la familia TCP/IP son los que hacen posible que todos estos sistemas compartan información entre sí.

    Generalidades

    Historia

    Motivos de su popularidad

    Las redes locales

    Las redes locales son comunes en las empresas y las organizaciones. Las redes locales permiten compartir recursos como impresoras, módem o disco de almacenamiento entre las computadoras conectados a al red. La ilustración número 3 muestra una red sencilla de un servidor y dos clientes compartiendo recursos al estar conectados. Existen distintas tecnologías aplicadas a la red de área local, encontrándose entre las más extendidas la Ethernet, Token Ring, SNA, DECNET.

    Ilustración 3. (Fuente: los autores)

     

    La tecnología de red local es el primer eslabón en la cadena de procesos que producen el intercambio de información entre sistemas.

     

    Protocolo Internet (IP)

    El protocolo IP es el elemento que permite integrar distintas redes entre sí (FDDI, RDSI, X.25, líneas dedicadas o de discado, token ring, ethernet, fast ethernet, giga ethernet, etc). El protocolo IP también enlaza las diferentes piezas dentro de la Internet pues permite la integración de redes diferentes en un solo formato general de jerarquía mayor.

    Un usuario (red, cliente o servidor) que trabaja en Internet tiene una dirección IP única. Una dirección IP es una dirección lógica que se identifica con un número de 32 bits que normalmente se escribe en formato decimal como cuatro enteros entre 0 y 255, cada uno de los grupos enteros se encuentran separados por puntos (192.112.36.5); es así como la dirección IP permite el encaminamiento de la información a través de la Internet sin que esta información se pierda o llegue a otros destinos distintos.

    En la ilustración 4 se muestra una red donde intervienen una serie de dispositivos que permiten el control y distribución de la información en la red.

    Ilustración 4. (Fuente: los autores)

     

    En la terminología de comunicaciones digitales, el protocolo IP define una red de conmutación por paquetes, lo cual tiene una ventaja sobre la red de conmutación por celdas al ofrecer mayor flexibilidad y mejor aprovechamiento del ancho de banda del canal de transmisión.

    La información se fragmenta en pequeños trozos o paquetes (alrededor de 1500 caracteres) que se envían independientemente por la red. Cada paquete es enviado con la dirección del destinatario, donde ha de ser entregado de forma similar a como funciona un sistema postal, cada paquete viaja independientemente de los demás por la red hasta alcanzar su destino como se muestra en la ilustración 5.

    Ilustración 5. Sobres IP (Fuente: los autores)

     

    Dentro de una red local, el encaminamiento de la información es simple. En un sistema basado en ethernet por ejemplo, el sistema de cableado es tipo bus y todos las máquinas escuchan la red para detectar los paquetes que se le dirigen a ellas. En la Internet este procedimiento es inviable ya que obligaría a la posible congestión pues resultan en muchos usuarios al ser Internet una red mundial además de que la numeración IP seria insuficiente para satisfacer las necesidades.

    Aparecen entonces los dispositivos conocidos como routers (antes llamados gateways), que son los elementos encargados del encaminamiento de los mensajes IP. Los routers conocen las máquinas conectadas a la red y toman la decisión de como encaminar los paquetes de datos a través de unos enlaces u otros, véase la ilustración 6.

    Cada router sólo necesita saber que conexiones están disponibles y cual es el mejor "próximo salto" para conseguir que un paquete este más cerca de su destino (El paquete va "saltando" de router a router hasta llegar a su destino).

    Ilustración 6. (Fuente: los autores)

    Las máquinas de la Internet, fuera del entorno de la red local, utilizan un router para encaminar los paquetes. La dirección IP de esta máquina es la única información que deben conocer, del resto se encargan los routers.

     

    Protocolo de resolución de direcciones (ARP)

    Como se comento ya, el protocolo IP dispone de mayor jerarquía para así permitir la interconexión entre redes de datos diferentes en la Internet; este tipo de filosofía minimiza gastos de infraestructura, posibilita las comunicaciones entre mayor cantidad de miembros en el mundo y entiende todos los idiomas al poseer un idioma universal como protocolo. El encaminamiento en el entorno de la red local utiliza el protocolo ARP que relaciona el nivel de red IP con los niveles inferiores. El protocolo ARP se usa para traducir las direcciones IP (lógicas) en direcciones de la red local.

    El funcionamiento del protocolo ARP es muy simple. Si una máquina desea enviar un mensaje a otra conectada con ella a través de una red ethernet por ejemplo; cada máquina en la red ethernet tiene una dirección única que se utiliza para dirigirle mensajes. Esta dirección no es conocida en principio por la máquina que origina el mensaje y que solo conoce la dirección IP de destino. El originador de la llamada genera un mensaje de petición ARP que contiene la dirección lógica de la máquina destino. El mensaje se envía a todas las máquinas de la red utilizando una dirección de 'broadcast', luego todas las máquinas reciben el mensaje y solamente aquella que reconozca la dirección IP como propia generará una respuesta. La respuesta ARP contiene la dirección física y lógica del destinatario, la cual se enviará directamente al originador de la consulta ARP, que con esta información puede dirigir inmediatamente sus mensajes.

    Las implementaciones del protocolo ARP incorporan buffers con las tablas de correspondencia entre direcciones IP y direcciones físicas de la red, de forma que se reduce el número de consultas que se deben realizar. Estas direcciones almacenadas en buffers son las tablas de datos de direcciones IP con que trabajan los routers o enrutadores de red que generalmente están contenidas en los ISP y conexiones menores de red.

     

    Clases de direcciones en Internet (direcciones IP)

    Direccionamiento Internet (IP)

    Dirección clase ‘A’

    Las direcciones de clase A corresponden a redes que pueden direccionar hasta 16.777.214 máquinas después de eliminar las combinaciones de puros ‘ceros’ y puros ‘unos’ que son invalidas (reservadas) por norma. Se caracterizan porque el primer bit es un ‘cero’ luego le siguen 7 bits que identifican la red y por último 24 bits que identifican la máquina o host.

    Ilustración 8. (Fuente: Prof. Yasmin Lara, apuntes de clases complementaria II)

    Dirección clase ‘B’

    Las direcciones de clase B corresponden a redes que pueden direccionar hasta 65.534 máquinas después de eliminar las combinaciones de puros ‘ceros’ y puros ‘unos’ que son invalidas (reservadas) por norma. Se caracterizan porque el primer bit es un ‘uno’ y el segundo bit es un ‘cero’ luego le siguen 14 bits que identifican la red y por último 16 bits que identifican la máquina o host.

    Ilustración 9. (Fuente: Prof. Yasmin Lara, apuntes de clases complementaria II)

    Dirección clase ‘C’

    Las direcciones de clase C corresponden a redes que pueden direccionar hasta 254 máquinas después de eliminar las combinaciones de puros ‘ceros’ y puros ‘unos’ que son invalidas (reservadas) por norma. Se caracterizan porque tienen una secuencia de ‘110’ para los tres primeros bits, luego le siguen 21 bits que identifican la red y por último 8 bits que identifican la máquina o host, tal como lo ejemplifica la siguiente ilustración.

    Ilustración 10. (Fuente: Prof. Yasmin Lara, apuntes de clases complementaria II)

    Dirección clase ‘D’

    Las direcciones de clase D corresponden a un grupo especial de redes que se utilizan para dirigirse a grupos de máquinas directamente. Se caracterizan porque tienen una secuencia de ‘1110’ para los cuatro primeros bits y el resto de los bits para la dirección de la máquina; se trata de un servicio especial que se le conoce como multicasting y para ello las máquinas deben estar configuradas para soportar este tipo de servicio.

    Dirección clase ‘E’

    Las direcciones de clase E son un reciente tipo experimental que se encuentran reservadas para aplicaciones futuras. Se caracterizan porque tienen una secuencia de ‘1111’ para los cuatro primeros bits.

    Direcciones de red reservadas:

    Existen una serie de direcciones IP con significados especiales. Están son:

    000.xxx.xxx.xxx (1)
    127.xxx.xxx.xxx (reservada como la propia máquina)
    128.000.xxx.xxx (1)
    191.255.xxx.xxx (2)
    192.000.000.xxx (1)
    223.255.255.xxx (2)
    xxx.000.000.000 (1)
    xxx.255.255.255 (2)
    xxx.xxx.000.000 (1)
    xxx.xxx.255.255 (2)
    xxx.xxx.xxx.000 (1)
    xxx.xxx.xxx.255 (2)

    Tabla 2. (Fuente: los autores)

    Las máquinas con la designación (1) se utilizan para identificar a la red propia, mientras que las que tienen la designación (2) se usan para enmascarar.

     

    DNS y direcciones IP

    Cada máquina en la red Internet tiene asignado una "dirección IP" como ya se comento; sin embargo las direcciones IP son difíciles de recordar, tediosas de manejar por los usuarios menos experimentados y fáciles de transcribir con errores, es por ello que existe un mecanismo de direcciones simbólicas que asignan un nombre a cada máquina. Estos nombres se encuentran asociados a un número o dirección IP, con lo que se facilita la navegación en Internet pues los nombres son más fáciles de usar y recordar que los números.

    Las direcciones simbólicas están formadas por nombres separados por puntos, donde los nombres representan el nombre de la máquina así como el nombre de los distintos dominios en los que esta incluida la máquina. Por ejemplo:

    dedalo.goya.eunet.es
    uno.infase.es

    Ya que se van a usar ambos tipos de direcciones para designar a una máquina se hace necesario que haya un mecanismo para pasar de uno al otro lado y viceversa; es aquí donde aparece el sistema DNS (Domain Name System o sistema de dominio de nombres) que es el encargado de realizar esta transformación.

    El DNS consiste básicamente, en una base de datos distribuida de forma jerárquica por toda la Internet que es consultada por el usuario para llevar a cabo la traducción entre los nombres y las direcciones numéricas.

     

    Protocolo de control de la transmisión (TCP)

    El protocolo TCP esta en una capa superior al IP, se encuentra ubicada en la capa de transporte del modelo OSI mientras que IP esta en la capa de redes; se encarga de administrar el ensamblaje de un mensaje o archivo en pequeños paquetes que serán enviados a la red digital de comunicaciones Internet. Luego este paquete será desensamblado en el sitio de recepción que la capa IP haya identificado como destino para quien va dirigido estos paquetes de información. Se encarga de subsanar estas posibles deficiencias para conseguir un servicio de transporte de información fiable.

    Ilustración 11. Modelo OSI. (fuente: los autores)

    OSI significa Interconexión de Sistemas Abiertos (Open Systems Interconection). El modelo OSI es un modelo de referencia diseñado por la Organización de Estándares Internacionales (ISO-International Standards Organization) con el fin de estandarizar el intercambio de información de modo que diferentes marcas de equipos pudieran interconectarse transparentemente.

    TCP fragmenta la información a transmitir, de la misma forma que lo hace el protocolo IP. TCP numera cada uno de estos paquetes de información a transmitir en la red, de manera que el receptor de la información pueda ordenarlos al recibirlos. Para pasar esta información a través de la red, TCP utiliza un sobre identificado con el número de secuencia de cada paquete. Los paquetes TCP se envían a su destino, independientemente unos de otros, utilizando el protocolo IP.

    Ilustración 12. Encapsulación de paquetes TCP. (fuente: los autores)

    En la parte receptora, el TCP recoge el paquete, extrae los datos, y los pone en el orden correcto. Si algunos sobres desaparecen, el receptor le pide al transmisor que retransmita los paquetes de nuevo. Cuando toda la información recogida esta en su orden, se pasan los datos a la capa de aplicaciones.

    Esta es una visión ideal y que muestra un ejemplo del protocolo TCP. En la práctica los paquetes no solamente se pueden perder, sino que pueden sufrir cambios en su transito por la red. TCP resuelve este problema colocando en el paquete que se envía lo que se denomina el "checksum". Cuando el paquete llega a su destino, el receptor TCP calcula que checksum que le indica cual debe ser su valor y lo compara con el que se ha enviado. Si no son los mismos, el TCP receptor entiende que ha habido un error en la transmisión y le pide al transmisor que reenvíe.

    Ilustración 13 Modelo de transmisión de la información por capas. (fuente: los autores)

    De esta forma el TCP ofrece un servicio fiable de transmisión de información. Todas las aplicaciones de la Internet utilizan los servicios de transporte TCP para el intercambio de información, de forma que pueden ignorar los problemas de envío de información a través de la red, o al menos muchos de ellos.

     

    Protocolo UDP

    Establecer una conexión TCP requiere gran cantidad de información en las cabeceras de los paquetes y en consecuencia retrasos en la transmisión; si se quiere enviar un paquete y no se requiere una particular precaución en el reparto del mismo entonces se pude usar otro protocolo que será más simple que el TCP (ver figura 12. Encapsulación del paquete TCP), este es el caso del "protocolo de data gramas del usuario (UDP) que se utiliza en vez del TCP en algunas aplicaciones.

    UDP es más simple que el TCP porque no se preocupa de mensajes que se pierdan, mantener el orden en los paquetes que se envían, etc... UDP se usa para programas que sólo envían mensajes cortos, y que puede reenviar el mensaje si una respuesta no se produce en período corto de tiempo. El UDP también se utiliza en el entorno de la red local donde la tasa de errores de transmisión es muy pequeña, y no es necesario el sofisticado control de errores del protocolo TCP.

    A continuación se muestran unas gráficas que representan los contenidos de las cabeceras de los protocolos IP, TCP y UDP para que se pueda visualizar mejor sus características y diferencias.

     

    Ilustración 14 Cabecera IP . (Fuente: los autores)  


     

     

    Ilustración 15. Cabecera TCP. (Fuente: los autores)  


     

     

    Ilustración 16. Cabecera UDP. (Fuente: los autores)

     


     

     

    Características del diseño

    En la actualidad, el sector relacionado con las organizaciones delictivas cuenta con plataformas tecnológicas de información altamente sofisticadas para poder acceder a sistemas financieros y burlar sistemas de seguridad, con lo que incrementan sus ingresos y facilitan significativamente el proceso de legitimación de capitales. Este enriquecimiento ilícito genera mayor desestabilidad en las arcas del fisco de una nación; es por ello que proponemos una plataforma de fácil instalación, centralizada para minimizar costos y que a futuro facilite las migraciones a tecnólogas de mayor poder.

    Para ello se debe contemplar aspectos que ofrezcan ventajas superiores a las plataformas tradicionales para el momento de combatir el crimen en un mismo campo de batalla. En la figura que se muestra en la siguiente página, se puede ver un esquema general de cómo debería plantearse la plataforma para conseguir aspectos positivos, efectivos, eficientes y económicos en el combate contra la legitimación de capitales según la siguiente tabla:

    Ventajas Desventajas
    Baja el nivel de burocracia Se requiere la participación y compromiso real de todos los entes involucrados para garantizar efectividad, eficiencia y realidad legitima.
    Organización simplificada Al estar centralizado se puede tener el caso de personal con filiación al sistema de gobierno en curso.
    Infraestructura económica
    Migraciones y actualizaciones tecnológicas sencillas
    Aminora la necesidad de Recursos humanos (RRHH) especializados
    Menor posibilidad de intervención extranjera (extraños al proyecto).
    Mayor independencia con relación a la plataforma tecnológica y estructura organizativa de los entes satelitales; lo que la convierte en un proyecto de arquitectura abierta y transportable.
    Al tener una imagen de la información en otro lugar espacial, se aminora el riesgo de perdida o deterioro por catástrofes naturales o tecnológicas.
    Mayor facilidad para la selección de los expertos a involucrar en el ente centralizador.
    Implica mayor seguridad y control centralizado.

    Tabla 2. (Fuente: los autores)


     

     

    Ilustración 17. Arquitectura propuesta (Fuente: los autores)

    En la gráfica se puede evidenciar la arquitectura de la plataforma de información propuesta; en este sistema se contempla una distribución con redundancia, donde existe el denominado UFI PRIMARIO y el UFI SECUNDARIO, se centraliza la información y se establece una comunicación entre el centro de control, por llamarlo de alguna forma, y el usuario; toda la comunicación se realiza a través de enlaces o líneas de transmisión directas disponibles para su uso con protocolos de comunicación TCP/IP o bien por enlaces utilizando la Internet. A continuación describimos cada una de las piezas, herramientas o máquinas que se deberán usar como prototipo para la instalación de esta plataforma propuesta.

     

    Criterios del diseño

    Una vez entendido el plan propuesto en las características del diseño; nos corresponde establecer cuales serán las mejoras herramientas actualmente existentes en el mercado y que recomendamos para hacer una realidad la propuesta al momento de instalarla como proyecto de ingeniería.

    Para esta tarea hemos optado por hacer los estudios de propuesta en dos campos de acción que deberán integrarse perfectamente para a la final poder proponer una verdadera herramienta con tecnología de punta y acorde con los objetivos trazados.

    Es por ello que planteamos el hardware y el software como dos campos de acción separados para evaluar alternativas y criterios, pero sin olvidar que deben integrarse fácil y adecuadamente para que funcionen con eficiencia como un todo, considerándolos en acción para cada una de las unidades que planteamos como en el siguiente cuadro:

    Hardware a proponer Software a proponer
    Servidor de archivos Sistema operativo
    Servidor de datos Servidor de red
    Firewall Servidor de Internet
    Enrutadores Firewall
    Sistemas de respaldo energético Encriptadores
    Programas de seguridad
    Aplicaciones adicionales

    Tabla 3. (Fuente: los autores)

     

    Hipótesis

    Debido a que se trata de una propuesta que no busca demostrar una teoría o enunciado, ya que solo pretende establecer un marco de ideas con la finalidad de solucionar una necesidad puntual, no se establece la necesidad lógica de una hipótesis. Sabino expone en su libro “... si se propone averiguar las causas o condicionamientos de determinados fenómenos, nos veremos obligados a elaborar una hipótesis...”[20], por otro lado es importante señalar que “... la formulación de una hipótesis es pertinente en una investigación explicativa donde se pretende establecer relaciones causales entre variables” [21].

     

    Variables del sistema

    Como el trabajo es una propuesta gerencial, hay que dejar en claro que no se trata de un diseño final de una máquina o herramienta; por lo tanto no existen variables que permitan recolectar datos para luego tabularlos, manipularlos, cotejarlos, analizarlos o someterlos a cualquier otro tipo de herramienta matemática para de ella obtener una verdad científica; Fidias en su libro establece que “Una variable es una cualidad susceptible de sufrir cambios” [22].

     

    Análisis de las variables

    Debido a la inexistencia de variables objetivas y cuantificables como ya se comento por el carácter del trabajo, no existen programas de manipulación para al análisis de variables.

     


    Glosario de términos  

    y significados

     

     

    Aquí presentamos un pequeño diccionario[23] ordenado alfabéticamente y en forma ascendente, relacionado solamente con la terminología utilizada en el presente trabajo con la finalidad de facilitar su lectura y comprensión sin necesidad de recurrir a otros textos especializados o diccionarios, haciendo del presente documento lo más autosuficiente posible.  

     

    APRECIACION: Incremento en el valor de la moneda de una nación como consecuencia de las fuerzas del mercado.

    ARBITRAJE: Es el proceso de comprar y vender simultáneamente el mismo título o un título equivalente en mercados distintos, generándose ganancias por los diferenciales de precio. Cabe destacar que mientras más entes participen en el proceso de arbitraje, los diferenciales tienden a desaparecer.

    ARBITRAJE DE INTERES CUBIERTO: Proceso donde se opera sobre las imperfecciones de precio entre el diferencial de interés de dos divisas y su respectivo precio de cambio a plazo.

    ASK: Precio de venta de un instrumento (oferta)

    BASIS POINT (bp): Es una centésima parte de 1%.

    BAUDIO: Unidad para medir la velocidad de transmisión de datos; son los números de cambios de estado de una señal por segundo. Medida de la velocidad de transmisión de datos. Originalmente utilizada para medir la velocidad de los equipos de telegrafía, ahora se refiere a la velocidad de transmisión de datos de un módem o de otro dispositivo en serie [serial device].

    BEAR MARKET: Nombre que se le da al mercado de dinero cuando se anticipa un descenso (pesimista)

    BID: Precio de compra de un instrumento (demanda)

    BOLSA DE VALORES: Mercado de capitales abierto al público de acuerdo con las reglas preestablecidas, donde se realizan operaciones de títulos valores a libre cotización, con el objeto de proporcionarles liquidez en el mercado secundario.

    BONO: Es un título cuyo emisor tiene la obligación de cancelar al poseedor el monto del principal y los intereses en los casos que estos existan.

    BONO A DESCUENTO: Obligación cuyo valor de emisión, o precio de cotización, es inferior al valor facial del título.

    BONO BASURA O JUNK BONDS: Bonos de alto riesgo que tienen baja calificación crediticia.

    BONO CONVERTIBLE: Es un bono cuyas cláusulas permiten que este sea convertido en acción de la empresa que lo emitió a un radio fijo de intercambio.

    BROKER: Constituye el nexo entre el comprador y el vendedor, al cobrar comisiones sobre la transacción, como remuneración de su servicio.

    BROWSER: [Web browser] es un ojeador, escudriñador utilizado para la navegación en el mundo de la www. Usted explora estas páginas separadas, localizadas en la misma o en diferentes ubicaciones de Internet, utilizando un ojeador de la red mundial Web tal como NCSA Mosaic.

    BULL MARKET: Se trata de un período de optimismo cuando se esperan incrementos en los precios del mercado.

    BUND: Bono del tesoro de Alemania.

    BUSCADORES: [Search engines]. Son los llamados motores de búsqueda. Se trata de servidores especializados de la Web que tienen acceso a una extensa base de datos sobre recursos disponibles en la red. De este modo, el usuario se conecta a un buscador e indica unas pocas palabras claves y representativas acerca del tema sobre el cual se busca información; estas palabras claves servirán para realizar una búsqueda en forma boolena en cada una de las bases de datos a las que tiene acceso y como resultado se muestra al usuario una lista con enlaces a páginas Web en cuya descripción o contenidos aparecen las palabras claves suministradas. Los buscadores se organizan según su aplicación primaria en buscadores por palabra o índices (como Lycos o Infoseek) y buscadores temáticos o Directories (como Yahoo!); la dirección en la www de algunos buscadores se pueden conseguir en los anexos de este libro.

    CAMBIO - (Mercado de Cambio): Consiste en el mercado de compra y venta de las divisas de los demás países con respecto a la divisa del país local.

    CASH MARKET O MERCADO EN EFECTIVO: Término utilizado para referirse al mercado de dinero en el que los instrumentos son transados para envío inmediato contra el pago en efectivo. Se utiliza este término para diferenciarlo del mercado de futuros.

    CENTRO FINANCIERO: Es una ciudad donde debido a la regulación gubernamental favorable existente, se producen una gran cantidad de transacciones financieras.

    CERTIFICADO DE DEPOSITO: Colocación de fondos por un plazo de tiempo en una institución financiera. Estos títulos son negociables en el mercado secundario y por lo tanto pueden ser comprados y vendidos antes de su vencimiento.

    CLASIFICACION ESTÁNDAR & POORS: Es el patrón aceptado internacionalmente para la clasificación del grado de solidez de una institución de acuerdo a ciertos criterios financieros y donde los signos (+, ‘’, -) indican el mejor, medio o peor de su categoría:

    COMMODITY: Es cualquier bien tangible. Productos como granos, metales y alimentos son “commodities” transados en los diferentes mercados internacionales.

    COMPROMISO DE RECOMPRA (Repo): Acuerdo entre dos partes donde el vendedor de un activo se compromete a recomprarlo a una fecha futura. Esta técnica se utiliza para pagar intereses, contabilizando la operación como una compra - venta, en lugar de un préstamo.

    CONTROL DE CAMBIO: Situación que ocurre cuando un gobierno regula las transacciones cambiarias, estableciendo un cierto tipo de cambio con el fin de controlar las entradas o salidas excesivas de capital en el país.

    CONVEXIDAD: Es la pendiente de la curva establecida por la relación precio-rendimiento de un instrumento de renta fija.

    CRAWLING PEG: Sistema de devaluación progresiva y controlada de una moneda implementada por las autoridades monetarias de un país, en la búsqueda de ajustar el tipo de cambio a los diferenciales de inflación e interés.

    CUPON: Tasa de interés asociada a un bono cuyo emisor tiene el compromiso de cancelar en las fechas previstas. La frecuencia de pago de los cupones se encuentra preestablecida al momento de la emisión del papel.

    DEFLACION: Decrecimiento en los precios de bienes y servicios.

    DEPOSITOS A PLAZO: Son colocaciones realizadas en una institución financiera, a una tasa acordada, durante un tiempo determinado, generalmente superior a un mes.

    DEPOSITOS A LA VISTA: Son fondos depositados en una institución financiera que pueden ser retirados en cualquier momento.

    DEPRECIACION: Reducción del valor de una moneda como consecuencia de las fuerzas de mercado.

    DESCUENTO - MERCADO DE CAMBIO: Es la cantidad en que el tipo de cambio a plazo es menor que el tipo de cambio de contado.

    DEVALUACION: Modificación del cambio por una acción gubernamental que produce una reducción del valor de la moneda nacional.

    DIRTY FLOAT: Situación que ocurre cuando a pesar que un gobierno haya anunciado que el tipo de cambio es determinado por el mercado, interviene en las transacciones de divisas para impedir apreciación excesiva de la moneda que pueda perjudicar las exportaciones, o una depreciación demasiado grande que incremente la inflación. En cada caso, el banco central entra a demandar u ofertar más divisas, respectivamente.

    DOWN JONES: Es el índice bursátil mundial, se basa en el precio de las acciones de 2.600 empresas que se cotizan en 26 bolsas, algunas importantes como New York, Tokio y Londres, otras más pequeñas como Hong Kong, Estocolmo y Madrid. La única bolsa latinoamericana que se incluye en el índice es la de Ciudad de México.

    DOWNLOAD: Es el proceso de traer (bajar) un archivo desde algún lugar en la RED a la computadora de un usuario. En comunicaciones, transferir uno o más archivos [files] de una computadora a otra, a través de una red [network] o utilizando un módem. Por ejemplo, es posible descargar [download] un archivo desde un servicio en línea [on-line service] (tal como CompuServe) a una computadora personal. En este caso, la computadora personal que solicita la información inicia la descarga [download] y almacena el archivo descargado [downloaded file] en el disco, para su procesamiento ulterior una vez que la transmisión ha concluido. Enviar información, tal como información de tipo de letra [font] o un archivo PostScript, desde una computadora a una impresora[printer].

    EMAIL: Permite enviar y recibir un número ilimitado de mensajes, con textos y todo tipo de ficheros vinculados (datos, imágenes, gráficos) desde cualquier punto del planeta donde exista un usuario con conexión a la red. Es el servicio mas conocido y utilizado en Internet, se trata básicamente de un esquema de intercambio de mensajes entre usuarios o grupos de personas, que supera el resto de los sistemas de comunicación conocidos por su rapidez y fácil manejo. Cada usuario posee una dirección de mail que consiste en un identificador único que asocia un usuario a un modo de Internet, esta información es la que se usa para encaminar un mensaje hacia su destino. Servicio de correo electrónico el cual permite que los usuarios envíen y reciban información de texto y software por medio de una red Lan o Internet.

    ENCAJE LEGAL O EXIGENCIA DE RESERVAS: Es el monto que deben mantener depositados los bancos comerciales de un país en el banco central de la nación correspondiente. Generalmente, la proporción es indicada como un porcentaje de los depósitos totales de cada banco. Cabe destacar que originalmente esta tasa fue creada para asegurar la solvencia de los bancos. Sin embargo, hoy en día es utilizada por las instituciones gubernamentales para controlar la oferta monetaria y la liquidez.

    EUROBONO: Son bonos emitidos en el mercado europeo, fuera de las fronteras del mercado de capitales de la nación emisora. Su denominación en términos de divisa, no debe ser necesariamente la misma a la del país de origen.

    EURODOLAR: Depósitos denominados en dólares en instituciones financieras fuera de las regulaciones financieras de los EE.UU.

    FDIC (Federal Deposit Insurance Corporation): Institución federal norteamericana que asegura los depósitos de las personas hasta cien mil dólares.

    FECHA VALOR - MERCADO DE DINERO: Día laboral en el que es posible realizar un pago para liquidar una transacción.

    FECHA VALOR - MERCADO DE CAMBIO: Día laboral en el que es posible realizar una transacción de cambio en los países involucrados.

    FEDERAL RESERVE: Máxima institución monetaria de los EE.UU., equivalente al Banco Central en Venezuela.

    FTP (File Transfer Protocol): Abreviatura de file transfer protocol [protocolo de transferencia de archivos]. Protocolo utilizado para tener acceso a un anfitrión [host] de Internet, y posteriormente para transferir archivos entre ese anfitrión y la computadora que usted está utilizando. Ftp es, además, el nombre del programa que se utiliza para manejar este protocolo. Este protocolo de transferencia permite el intercambio de archivos entre dos sistemas en una red TCP/IP FTP (File Transfer Protocol). El protocolo de transferencia de archivos o ftp está basado en la arquitectura cliente-servidor [client-server architecture]; por lo tanto, usted ejecuta un programa cliente ftp [ftp client program] en su computadora y se conecta a un servidor ftp [ftp server] (o programa) que está en ejecución en la computadora anfitriona (o principal) de Internet [Internet host]. El programa ftp [ftp program] se originó como un servicio de apoyo [utility] de UNIX, pero hoy día hay versiones disponibles para casi todos los sistemas operativos más populares. El programa tradicional ftp de UNIX [UNIX ftp program] hace que arranque un procesador de comandos [command processor], basado en texto; no obstante, las versiones más modernas utilizan una interfaz gráfica de usuario [graphical user interface] con menús de persiana o desplegables[pull-down menus]. El consenso general parece indicar que las versiones gráficas son más fáciles de utilizar; no obstante, una vez que usted logra el dominio de las cosas, las versiones basadas en el procesador de comandos, aún cuando no son tan elegantes, por lo general son más rápidas. Los comandos básicos de FTP:

    GOPHER: Es un sistema que le permite a los usuarios de computadoras que encuentren servidores y archivos de información en Internet. Para mayor información véase los apéndices.

    HTML: [Hypertext Markup Language] Lenguaje de marcación de hipertexto, es el macro lenguaje de programación, interpretado por los navegadores o web browsers, que permiten el diseño de los enlaces [links] de hipertexto, conectando la información diseminada (texto, gráficos, audio o vídeo) mediante páginas individuales HTML.

    INFLACION: Incremento en los precios de bienes y servicios. Cuando un país mantiene una inflación sostenida, mayor a la ocurrida en otros países, sus productos se hacen menos competitivos por lo que la nación se ve forzada a devaluar su moneda. Es el incremento continuo y sostenido en el nivel general de precios de los bienes y servicios de una economía, consecuencia de un estado de desequilibrio entre el dinero disponible en el mercado y la cantidad de bienes puestos a la disposición de los consumidores, con lo cual la demanda de productos se hace intensa porque el dinero abunda y en consecuencia, aumentan los precios.

    INTERESES ACUMULADOS (Bonos): Son los intereses calculados desde la emisión de un bono, o desde el último cupón pagado hasta la fecha de transacción. El comprador de dicho bono, debe cancelar al vendedor el monto del principal que proviene del precio de compra, más los intereses acumulados.

    KBPS: Cantidad de miles de bits, o de dígitos binarios [binary digits] transmitidos cada segundo. La unidad de medida es el Kilobit por segundo, donde cada Kilobit está formado por mil bits, corresponde a la unidad de 1.000 bits por segundo Kbps ó Kilobits por segundo. Es una unidad de medida que se utiliza como indicador de la velocidad de transmisión en las comunicaciones, velocidad de transmisión por una línea de telecomunicación..

    LAVADO: Transacción que no produce pérdida ni beneficio. Generalmente, se incurren en estas operaciones cuando se realizan transacciones entre empresas relacionadas. Este término ha sido desprestigiado por su uso en el lavado de dinero para operaciones ligadas al narcotráfico.

    LEGITIMACIÓN DE CAPITALES: La legitimación de capitales, es el termino adoptado por el legislador de la Ley Orgánica sobre Sustancias Estupefacientes y Psicotrópicas (LOSEP), en una reforma parcial del 30 de septiembre de 1.993, para referirse al delito de "lavado de dinero", "lavado de capitales" o "lavado de activos" o "blanqueo de dinero" términos estos usados por los organismos supragubernamentales y la mayoría de los países.

    LIBOR (London Interbank Offered Rate): Tasa de interés interbancaria en Londres.

    LIFFE: London International Financial Futures Exchange.

    LINUX: Sistema operativo con características de multitarea y multiproceso, con un buen soporte para red y estabilidad así como seguridad; cuya adquisición es gratuita dado su carácter de licencia GNU.

    LIQUIDEZ: Disponibilidad de una institución para honrar sus obligaciones financieras sin demora.

    LIQUIDEZ DE INSTRUMENTO: Facilidad en la negociación de un título.

    LIQUIDEZ MONETARIA: Está constituida por el circulante y el casi dinero, es decir, la suma de las monedas, billetes, depósitos de ahorro y depósitos a plazo fijo.

    MARGEN O SPREAD: Diferencia entre el precio de demanda y el de oferta en la cotización de un instrumento, divisa o título. Adicionalmente, este término se usa para indicar la diferencia en el rendimiento entre dos títulos.

    MERCADO DE FUTUROS: Es el mercado en donde se compran y venden contratos para el envío de commodities o instrumentos en fecha futura.

    METABUSCADORES: Son sitios especiales en la www que ejecutan programas de búsqueda en forma indirecta; para ello los metabsucadores hacen la búsqueda simultánea utilizando varios motores de búsqueda disponibles en la Internet y presentando los resultados según ciertos criterios preestablecidos.

    OFERTA MONETARIA: Es la cantidad de moneda en circulación más los depósitos a la vista en los bancos comerciales y depósitos a plazo.

    OPCION: Cabe destacar que el valor de cualquier opción se le conoce como prima.

    POSICION CORTA (Irse en Corto): Situación que se produce cuando un corredor debe entregar mayores cantidades de un título o moneda (venta), de las que posee o recibe (compra). Esto se hace, cuando se piensa que el mercado va hacia la baja.

    POSICION LARGA (Irse en Largo): Situación que se produce cuando un corredor posee mayores cantidades de un título o moneda (compra), de las que debe entregar (venta). Esto se hace, cuando se piensa que el mercado va hacia la alza.

    PRECIO DE EJERCICIO (Strike Price): Es el precio en que el poseedor de una opción puede ejercer el derecho de comprar o vender el instrumento.

    PRIMA DE UN TITULO: Diferencia existente entre el monto pagado por un título y su valor facial, cuando el primero es superior al segundo. En caso contrario se trata de un descuento.

    PRIMA EN CAMBIO: Es el monto que surge cuando el tipo de cambio a plazo de una moneda contra otra es mayor al tipo de cambio al contado entre las dos monedas.

    PRIME RATE: Es el tipo de interés que los bancos cargan en los prestamos a sus mejores clientes, el mismo se ajusta al alza o a la baja según cambian los tipos de interés en el mercado de títulos.

    RENDIMIENTO CORRIENTE (Current Yield): Pago de los cupones de un instrumento como un porcentaje del precio de mercado del mismo.

    REVALUACION: Modificación del cambio por una acción gubernamental que produce un incremento en el valor de la moneda nacional.

    RIESGO DE CREDITO: Riesgo que surge por la posibilidad de que el prestatario no se encuentre en capacidad de honrar sus obligaciones.

    SEC (Securities and Exchange Commission): Agencia creada por el gobierno norteamericano para proteger a los inversionistas en securities.

    SECURE SERVER: Servidor seguro. Es una opción de seguridad que permite enviar información en forma encriptada o codificada digitalmente a través de una red, esta información solo puede ser interpretada si se dispone de la llave o clave para descifrarla; de esta forma se elimina la posibilidad de que la información contenida en el mensaje, sea aprovechada sin autorización por personas ajenas al proyecto. La dirección de los SS comienza normalmente por https://...

    SERVIDOR: Máquina dedicada a la función de intercambio de información dentro de una red LAN, WAN o MAN, bajo ciertos parámetros de restricciones y privilegios. Entre los tipos de servidores más comunes existen los de programas, de datos, de correos, de accesos y bloqueos, de conferencias.

    SERVER SIDE: Aplicaciones que corren a la par del programa servidor y que permiten por lo general realizar programas de control, programas para otro tipo de servicios, comunicaciones, resolución de dominios, accesos CGI o administración de cuentas.

    SHAREWARE: Es un método de distribución de programas de manera gratuita a través de la Internet como medio primario de entrega. En esta categoría entran todos los software que pueden ser distribuidos y utilizados en forma gratuita bajo ciertas restricciones impuestas por el dueño; como la intención de esta modalidad es dar a conocer un producto, la restricción generalmente es temporal.

    SPOT: Precio corriente de mercado de un instrumento o commodity.

    SWAP (Mercado de Cambio): Es comprar una moneda al precio spot y simultáneamente venderla a futuro.

    TASA ACTIVA: Es la tasa de interés que cobran los institutos financieros por la realización de sus operaciones activas (créditos, colocaciones, etcétera)

    TASAS DE INTERES NEGATIVA: Ocurre cuando las tasas de interés activas del mercado bancario de un país, es inferior a la tasa de inflación presente en un mismo período.

    TASA PASIVA: es la tasa de interés que pagan las instituciones financieras en sus operaciones pasivas (depósitos de ahorro, depósitos a plazo fijo, etcétera)

    TCP/IP: (Transmission Control Protocol / Internet Protocol). Set de instrucciones que habilita a diferentes tipos de computadoras y redes, a comunicarse entre si a través de Internet. TCP es el Protocolo de Control de Transmisión, IP es el Protocolo de Conexión entre redes heterogéneas. El protocolo TCP permite el transporte de datos de datos usando los servicios de IP. TCP/IP fue desarrollado originalmente por la Administración de Proyectos Avanzados de Investigación de Defensa [Defense Advanced Research Projects Agency (DARPA)] Del Departamento de Defensa de Estados Unidos para computadoras que usan el sistema operativo de UNIX, a finales de la década de los años 1970; pero es usado ahora por cualquier computadora, sin tener en cuenta el sistema operativo que utilicen. TCP define cómo se transfieren los datos a su destino. IP define cómo los datos son divididos en bloques de información, llamados paquetes para su transmisión, también determina el camino que cada paquete toma entre las computadoras. El conjunto de protocolos TCP/IP incluye acceso a los medios de soporte, al transporte de paquetes, a las comunicaciones de la sesión, a la transferencia de archivos, al correo electrónico y a la emulación de terminal [media access, packet transport, session communications, file transfer, e-mail y terminal emulation]. El TCP/IP [Transmission Control Protocol (TCP)/Internet Protocol (IP)] recibe apoyo de parte de una gran cantidad de proveedores de hardware y software y está disponible en muchas computadoras diferentes, desde las computadoras personales hasta las maxicomputadoras [mainframes]. Muchas corporaciones, universidades y agencias del gobierno utilizan el protocolo TCP/IP, el cual es también el fundamento de Internet.

    TELNET: (Conexión Remota) Son los procedimientos que habilitan a un usuario de una computadora conectada a Internet, acceder a información de cualquier otra computadora conectada también a Internet, con tal de que el usuario tenga una contraseña para acceder a la computadora distante la cual proporcionará archivos públicamente disponibles. El servicio Telnet permite al usuario acceder a un sistema remoto y trabajar con él a través de una sesión en modo terminal, como si estuviera trabajando físicamente junto a dichos sistemas. Existen numerosos servidores de telnet que ofrecen servicios públicos como puede ser el acceso de base de datos documentales, catálogos, fondos bibliográficos, e incluso servicios muy especiales como el Directorio. Por ejemplo, es posible acceder a la red de bibliotecas del CSIC (de España) simplemente llevando a cabo un telnet a cti.csic.es. Telnet es parte del conjunto de protocolos TCP/IP (Protocolo de control de transmisión / protocolo de Internet [Transmission Control Protocol-Internet Protocol]) utilizado para la conexión remota y emulación de terminal [remote login y terminal emulation]; asimismo, nombre del programa utilizado para conectar a los sistemas anfitriones de Internet. Diseñado originalmente como un servicio de apoyo [utility] de UNIX, telnet está disponible en la actualidad para todos los sistemas operativos más populares

    TIBOR: Es el equivalente al LIBOR en Tokio.

    TICK: Movimiento mínimo del precio en un contrato a futuro.

    UNIX: Sistema operativo con características de multitarea y multiproceso, con un buen soporte para red y estabilidad así como seguridad; corre en microprocesadores RISC distintos a las PC y cuya adquisición no es gratuita como la del Linux.

    UPLOAD: [Cargar] Proceso de enviar un archivo desde su computadora a otro sistema de la red. En comunicaciones, enviar uno o más archivos [files] desde una computadora a otra que se encuentran conectadas en una red [network] tipo LAN, WAN, MAN o bien con conexión de MODEM sencillo.

    URL: [Uniform Resource Locator] especifica el localizador uniforme de recursos; se trata de una dirección lógica con la que se puede tener acceso a un recurso de la red mundial WWW inmediatamente. Estas direcciones no se establecen al azar, sino que cumplen con ciertos criterios de exigencia que se encuentran normados para su uso mundial.

    VALOR EN LIBROS (Mercado de Dinero): Es el valor a que se encuentra un instrumento en los libros contables, basado en el precio de compra y los intereses acumulados a

    WWW (World Wide Web): Abreviado WWW, W3, o simplemente la red mundial Web. Inmensa colección de páginas de hipertexto [hypertext] en Internet. En 1990 Tim Berners - Lee, un joven estudiante del Laboratorio Europeo De Física De Partículas (CERN) desarrollo un nuevo sistema de distribución de información en Internet basado en paginas de hipertextos, al que denomino World Wide Web (la “Telaraña Mundial”). Lo realmente novedoso del Web es la aplicación del concepto de hipertexto a la inmensa base de información accesible a través de Internet. El éxito actual del Web se debe en parte a la facilidad con que se accede la información y, por otra, a que cualquiera que este conectado a Internet puede ser no solo consumidor de información, sino que también puede convertirse, de forma mas o menos directa, en proveedor de la misma. La www no es solamente una herramienta para científicos; es una de las herramientas más flexibles e intrigantes que existen para ojear y curiosear [surfing] a Internet. Pueden agregarse otros rasgos a las páginas web con programas especiales, como Java, un idioma de la programación que es independiente del sistema operativo de una computadora, desarrollado por Sol. Microsystems.

     


    Capítulo III  

    Marco metodológico

     

     

    Clasificación de la investigación

    Para poder realizar una clasificación acertada del presente proyecto como investigación dentro del contexto científico, es necesario tener claro el significado de las diversas formas de conocimiento científico, del método científico, de lo que es una investigación científica y de las características del método científico. La investigación científica se define como una actividad encaminada a la solución de problemas. Su objetivo consiste en hallar respuestas a preguntas mediante el empleo de procesos científicos[24] o también como un esfuerzo que se emprende para resolver un problema, claro está, un problema de conocimiento [25]. Considerando que la investigación científica es un proceso metódico, organizado y sistemático [26], las formas de conocimiento son determinantes para establecer el nivel y tipo de investigación. Es el conocimiento científico el que establece las bases de un proceso tecnológico tendiente a la investigación y desarrollo o innovación, con la finalidad de poder generar plataformas de trabajo basadas en análisis de información disponible y con miras a producir mejoras en los procesos que afectan y son afectados por el entorno.

    Existen dos tipos generalizados de conocimientos en el mundo, estos son el conocimiento vulgar y el conocimiento científico. El primero es el que se adquiere a través del procedimiento vulgar o popular; se trata de un conocimiento adquirido por experiencia más que por un procedimiento científico, es el resultado de la vida diaria. El segundo es el conocimiento científico que se adquiere a través de procedimientos científicos basados en una investigación científica y que a su vez genera conocimiento vulgar y conocimiento científico nuevos [27].

    Por otro lado, el método científico se le puede definir como el proceso sistematizado y organizado que se aplica al ciclo entero de la investigación, donde se señalan los procedimientos y razonamientos metodológicos a emplear [28]; por lo que las características del método científico se centran su capacidad de ser fáctico, empírico, objetivo, trascendente y auto correctivo; teniendo gran similitud con las características del conocimiento científico.

    De todo lo antes expuesto, se puede determinar que la clasificación de la investigación se divide en tres formas; la primera será según el propósito o razón de la investigación y se la clasifica como pura o aplicada. La segunda será según el nivel de conocimiento a obtener con la investigación y podrá ser exploratoria, descriptiva o explicativa. Por último se la clasifica según sea la estrategia empleada por el investigador, como documental, de campo o experimental.

    En toda investigación se persigue un propósito, se busca un determinado nivel de conocimiento y se basa en una estrategia particular o combinada.

     

    Propósito o razón de la investigación

    Desde el punto de vista del propósito o razón de este estudio, podemos decir que la investigación es aplicada por cuanto busca resolver un problema concreto como es aportar las directrices en forma de recomendaciones para implementar la UIF en Venezuela; sus resultados podrán utilizarse inmediatamente para evaluar la eficacia de la propuesta.

    Una investigación pura es la que genera resultados que posiblemente aporten información sobre el problema, pero, en ningún momento van a permitir resolverlo directamente en la práctica; es generadora de conocimiento científico puro que en algún momento se le puede utilizar como bases teórica en otra investigación para resolver problemas concretos.

     

    Nivel de conocimiento de la investigación

    El nivel de la investigación esta referido al grado de profundidad con que se aborda el mismo[29], en tal sentido el proyecto presenta características que lo ubican dentro del nivel exploratorio ya que realiza un estudio sobre un tema poco conocido en Venezuela y con poca trayectoria en el mundo debido al dinamismo que este fenómeno presenta, lo que obliga a su poco conocimiento o dominio por todos ya que existen mecanismos con mayor o menor eficacia pero que presentan fallas importantes. Pero también dispone de un matiz que lo coloca como una investigación de nivel descriptivo ya que trataremos de caracterizar el fenómeno del enriquecimiento ilícito en Venezuela y su proyección desde y hacia Venezuela y el mundo con la finalidad de poder establecer su estructura y comportamiento y así idear un esquema de estudio que nos permita proponer soluciones a nivel exploratorio en función de los resultados descriptivos.

     

    Diseño o estrategia de la investigación

    La estrategia de la investigación se centra en una investigación de tipo eminentemente documental puesto que la obtención de los datos y su análisis provienen de materiales impresos y registros de otros tipos que incluyen la Internet. Sin embargo, también dispone de una estrategia basada en una investigación de campo ya que se realizaran consultas en el ámbito mundial a entes privados y públicos así como con personalidades reconocidas, que se encuentran relacionadas con el problema del enriquecimiento ilícito y la legitimación de capitales.

     

    Población y muestra

    Desde el punto de vista estadístico, una población o universo puede estar referido a cualquier conjunto de elementos de los cuales pretendemos indagar o conocer sus características, o una de ellas, y para el cual serán validas las conclusiones obtenidas en la investigación. Para poder identificar y definir la población o universo, se requiere establecer primero las unidades de análisis, sujetos u objetos de ser estudiados y medidos, por lo que los elementos de la población no necesariamente tienen que estar referidos única y exclusivamente a individuos vivos, sino que también puede tratarse de instituciones, objetos físicos, etcétera, definido de manera precisa y homogénea en función de la delimitación del problema y de los objetivos de la investigación [30].

    La muestra estadística es una parte de la población; se trata de un numero de individuos u objetos seleccionados científicamente donde cada uno de ellos es un elemento del universo[31]. Una muestra es una parte representativa del universo, seleccionada según ciertos criterios en forma estadística o aleatoria, cuyas características deben reproducirse en ella la más exactamente posibles; estadístico por cuanto el tamaño de la muestra debe ser suficientemente grande como para que permita aplicar matemáticas estadísticas para su análisis y aleatorio por cuanto debe ser seleccionado en la mayoría de los casos al azar para que su significancia y valor no se vean viciados por el observador y así se trate de una muestra representativa y no manipulada [32].

    De aquí podemos concluir que debido a que tratamos una propuesta de solución a un problema, nuestro universo de estudio se centra en dos vertientes; la primera relacionada con los procesos de legitimación de capitales y la segunda centrada al sistema de tecnología que se recomienda para establecer una plataforma de control y supervisión de la primera.

    Para el caso de estudio de la legitimación de capitales realizamos investigación bibliográfica y evaluamos las respuestas de distintas naciones que tratan de frenar este flagelo, por ello nuestro universo es mundial por su carácter globalizante, pero nuestra muestra se centro al estudio de los textos relacionados con esquemas financieros y de control contra la legitimación de capitales.

    Para el caso de la propuesta tecnológica, se consideraron todos los posibles sistemas hardware y software de administración de la información en forma de bases de datos digitales con acceso a redes en tiempo real. Nuestro universo se limito a las máquinas con capacidad de establecer redes del tipo cliente servidor con capacidad para Internet.

     

    Técnicas e instrumentos de recolección de datos

    Para poder recopilar información que después será analizada para resolver el problema de investigación en función de los objetivos, se requiere definir en primer lugar los instrumentos o herramientas que se utilizaran para tal efecto y la forma o técnicas como se van a utilizar dichos instrumentos. El instrumento consiste en la herramienta o formulario diseñado para registrar la información que se obtiene durante el proceso de recolección de la información. La técnica es el conjunto organizado de procedimientos que se utilizan durante el proceso de recolección de datos.

    Como instrumentos se utilizaron la observación directa, las fichas bibliográficas y las entrevistas informales así como los folletos informativos, los programas de benchmarking para medir rendimientos de microprocesadores y plataformas y las notas mediante fichas.

     

    Técnicas de procesamiento y análisis de datos

    Aquí incluimos como vamos a analizar e interpretar los resultados. Una vez recopilados los datos a través de los instrumentos y técnicas de recolección, es necesario procesarlos para que luego puedan ser analizados. El procesamiento de los datos consiste en ordenarlos organizarlos según ciertos criterios de tal forma que se facilite la disponibilidad de dichos datos al momento de requerirlos para cotejarlos, contarlos o aplicarlos a un proceso matemático o estadístico.

    Para tal efecto se obtuvieron los resultados de las pruebas de benchmarking mediante reportes de revistas especializadas y por aplicación directa a máquinas a las que se tuvo acceso; esta información en muchos casos visual, nos permitio orientar las recomendaciones en función de un máximo rendimiento posible.

     


    Capítulo IV  

    Los aspectos administrativos de la investigación
    Análisis técnico económico y relación costo beneficio

     

     

    La gestión financiera del proyecto

    Para el desarrollo del presente proyecto se requería de una inversión en tiempo y dinero tal como lo demostramos en las líneas que siguen. Se trabajo bajo un esquema de análisis técnico económico para fijar un patrón de relación costo beneficio que demuestre no solo la inversión que debe hacerse, sino su ganancia en dinero y valor agregado.

    Para reflejar los aspectos relacionados directamente con el dinero, se identificaron los recursos a utilizar y sus costos; en cuanto al valor agregado se fijó una relación en función del daño social y económico de la nación en función del valor del dinero.

     

    Recursos a utilizar

    Aquí tenemos que diferenciar y separar entre recursos humanos, materiales, tecnológicos y financieros.

    Con el renglón de recursos humanos se pretende incluir los gastos que se ocasionarán con motivo de honorarios, salarios, bonificaciones u otros que deberán cancelarse a los asesores, auxiliares, traductores, transcriptores o cualquier otra persona que se encuentre involucrada en forma directa o indirecta con el presente trabajo de investigación.

    Por recursos materiales nos referimos a todos aquellos recursos tangibles y sus costos; este lo dividimos en tres subgrupos, los relacionados con gastos de oficina, los relacionados con equipos, los relacionados con dispositivos o partes y repuestos. Como gasto de oficina se considera a los gastos ocasionados por los procesos normales dentro de una oficina como lo son las fotocopias, el empastado, los facsímiles o telex, los consumos telefónicos pro razones de trabajo relacionado con el proyecto en cuestión, las fotografías y cualquier otro renglón afín a esta temática. Como gastos relacionados con el renglón de equipos se pueden incluir y contar a las distintas máquinas que sé pretender utilizar como lo son las computadoras, las impresoras, los scanners, los equipos de laboratorio, etcétera. Mientras que como dispositivos, partes o repuestos se relacionan todas las piezas generalmente pequeñas que forman parte integral de una unidad más compleja o máquina como lo son los cristales de un láser o los distintos circuitos o partes mecánicas de una máquina eléctrica, electrónica o de cualquier otro tipo que generalmente se esta diseñando y ensamblando para producir un trabajo o con propósitos específicos relacionados con los objetivos del proyecto de investigación.

    En cuanto a los recursos tecnológicos nos referimos a todas aquellas herramientas generalmente no tangibles y de carácter tecnológico que no se reflejan en ninguno de los otros renglones antes expuestos; aquí podemos considerar los gastos relacionados con conexiones hacia la superautopista de la información (Internet) o los distintos programas y licencias necesarios y que se van a utilizar como herramientas de trabajo blando para llevar a cabo y con éxito todo lo relacionado con la manipulación de información.

    Por último contamos con los recursos financieros donde reflejaremos las entidades o instituciones que financian el presente proyecto, así como las que pudieran participar en el proceso de financiamiento en caso de establecerse una contingencia.

    Como recursos humanos indispensables y obligados, se hará uso solamente de los tesistas y del tutor, quienes se encargaran de diseñar, ejecutar y analizar las encuestas y la recopilación de datos necesarios desde el punto de vista de tecnología disponible en el mercado e información relacionada con la problemática que se estudia, para al final desarrollar las conclusiones, propuestas y recomendaciones que se consideren meritorias. Los gastos relacionados con este renglón son cubiertos por los ejecutores. Se trata de un trabajo de investigación que permitirá recopilar información, ordenarla, tabularla y analizarla para generar una recomendación que puede resultar en un proyecto a implementar en forma directa y sin variantes.

    Los recursos financieros se obtendrán de recursos propios de los autores; sin embargo, el CoNaCUID se encuentra en disposición de aportar ayuda económica si el caso así lo amerita.

    Los recursos materiales son pocos ya que a nivel de equipos solo se hará uso de los equipos disponibles por los mismos autores y se centran en una computadora capaz de realizar análisis numérico de alta velocidad, impresora de alta resolución para los momentos de generación de gráficos estadísticos. Los costos relacionados con el material de oficina, así como las fotocopias, diapositivas de presentación y encuadernaciones de los tomos necesarios para la presentación final, serán cubiertos por el CoNaCUID.

    En general los gastos asociados que se estiman para el desarrollo e instalación en forma exitosa de la presente propuesta en forma de proyecto son como siguen:

    Tipo de recurso Tipo Descripción Monto en Bs.
    Recursos humanos Personal directo Ingeniero de redes ---
    Programador C ---
    Personal indirecto Instaladores ---
    Recursos materiales Computadora como servidor de redes, de datos, de programas de aplicaciones, de Internet y Firewall Computadora Jemaca con doble procesador y doble disco duro de 17.3 GB 2.500.000,00
    Impresora láser HP 210.000,00
    Tarjeta 3Com UTP 10/100 20.000,00
    Conexión a la Internet con CANTV Incluye el router y soporte según 3 esquemas tarifarías 350.000,00 mensuales (mínima)
    Sistemas para soporte energético Sistema UPS Tripp Lite Internet Office 500 con software 69.200,00
    Recursos tecnológicos Software Programas de bases de datos ---
    Programas de comunicaciones ---
    Programas de seguridad ---
    Hardware Conexión ADSL hacia Internet con dirección IP fija 256Kbps 62.000,00 mensual (fijo)
    Recursos financieros Contingencia Todas las anteriores sin conexión Internet 2.799.200,00

    Tabla 4.- (Fuente: los autores)
    NOTA: Los valores reflejados en la tabla están expresados en bolívares; sin embargo, para poder mantener la proyección de los costos del proyecto, se debe hablar en función de una moneda que sufra menores cambios de valor en el tiempo. Es por esta razón que recomendamos hacer referencia de los costos en relación a la tasa de cambio de 552,50 Bs. por US$ que fue la utilizada cuando se llenó la tabla.

    Para el momento de la transcripción de este texto, CANTV.NET acaba de liberar un nuevo plan de acceso a Internet con tecnología ADSL mucho más económica.

     

    Relación costo beneficio

    Es difícil establecer la relación costo beneficio cuando no se dispone de valores fijos de comparación, sobre todo por que no sabemos cuanto capital mueve el proceso de legitimación de capitales y ni en cuanto afecta a la economía nacional. Sin embargo es posible fijar la atención en la ganancia de valor agregado que se encuentra asociada a la implantación de esta plataforma. Esta claramente comentado el problema de fugas de dinero en la modalidad de legitimación de capitales debido a que como se trata de capitales no registrados ante el fisco nacional, no pagan impuestos y por tanto no aportan beneficios económicos a la nación.

    No con esto queremos favorecer las acciones delictivas de estas organizaciones que trabajan fuera de los marcos legales; pero es una verdad que estos capitales hacen daño al evadir al fisco, alterar el valor real del dinero, generar procesos inflacionarios y deteriorar la economía de una nación. Si fuera posible tener un control sobre estas actividades delictivas y poder eliminarlas, entonces sería posible trabajar con herramientas financieras que realmente produjeran resultados positivos al no encontrarse influenciadas por variables no controladas; esto seria un gran triunfo ya que facilitaria las acciones orientadas a estrategias financieras en la macroeconomía, incentivando el desarrollo económico y social sostenido.

     


    Conclusiones  

    El impacto social y económico de la propuesta

     

     

    El impacto social de esta investigación y de la implantación de UIF en Venezuela es difícil de evaluar, al igual que ha ocurrido con otras experiencias en el resto del mundo, más aún con el cambiante ambiente político en que se encuentra inmerso actualmente el país.

    Lo que si se puede establecer es que Venezuela ha implementado recientemente una serie de medidas para controlar la legitimación de capitales; algunas de ellas efectivas como lo son las de tipo financiero, principalmente apoyadas por la banca y sus gerentes, y otras que solo se quedan en la parte normativa como el rendimiento de cuentas sobre operaciones en los registros públicos de la adquisición de bienes inmuebles, que reposan en enormes cantidades de papel en las oficinas de la CONACUID sin ningún tipo de análisis o procesamiento.

    Cada país tiene su propia idiosincrasia, se trata de escenarios diferentes, con actores diferentes y es así como el resultado experimentado por cada una de las naciones no siempre es el mismo, aún con los fuertes vientos globalizadores. Las medidas adoptadas son muy recientes para poder medir un impacto y establecer resultados concluyentes; por otro lado, la implantación de la UIF en Venezuela solo es un proyecto ambicioso que bien se puede convertir en una herramienta determinante, efectiva y eficiente, cuya medición de efectividad se verá poco reflejada en forma objetiva pues además no existen estadísticas confiables en legitimación de capitales y los sectores delictivos han aprendido como comportarse bajo ambientes altamente controlados.

    Sin embargo las UIF en diversas ubicaciones en el mundo, han logrado junto con las herramientas tecnológicas desplazar muchas de las operaciones para legitimar capitales a los denominados paraísos fiscales, donde no son controladas. Esta claro que su efectividad va más relacionada a un valor agregado que a resultados objetivos directos. El impacto social de este tipo de unidades puede ser beneficioso por el solo hecho de su creación y divulgación, creando una atmósfera de control y confianza del sector financiero, como es el caso de la implantación del SENIAT en Venezuela, donde su sola creación y publicidad sobre el control que ésta tendría logró incrementar la recaudación fiscal y legalización de empresas acostumbradas a evadir dichas obligaciones.

    Ahora si este tipo de unidades solo demuestran buenas intenciones y el control en el incumplimiento de las obligaciones continúa o es evadido con nuevas estrategias, este impacto sobre la sociedad caerá rápidamente.

    El FMI (Fondo Monetario Internacional) calculó en 1 billón de dólares [35] la cantidad de ingresos que queda fuera de la economía formal del mundo, principalmente debido a la legitimación de capitales, otras fuentes extraoficiales estiman hasta 1.000 billones, situándose por encima de los ingresos formales de la industria petrolera. En los países Latinoamericanos no existen estadísticas especificas en esta materia, en Venezuela se debe principalmente a la ineficiencia y corrupción en los tribunales de justicia. Estas estadísticas son fundamentales para poder evaluar el impacto económico de la investigación, pero basándonos en las cifras internacionales se puede suponer que estos montos son significativos y cualquier medida que se tome con éxito representará una disminución importante del ingreso de capitales provenientes del delito los cuales generan todo tipo de desbalances como son los económicos y sociales.

    Si no se selecciona una tecnología estable y abierta, un control centralizado e independencia en sus operaciones del entorno político, además de una correcta gerencia en la administración de todo tipo de recursos junto a un marco legal cónsono con los nuevos tiempos, la implantación de UIF en Venezuela no pasará de ser una institución más, propia de los países del tercer mundo caracterizada por su ineficiencia, falta de creatividad y poca repercusión en la sociedad.

    La parte de procedimientos, que describe el qué, el quién, el cómo, el cuándo y el por qué, en donde se proponen las reglas de funcionamiento de la política, las excepciones, las contingencias, etc. y todo lo relacionado con el proceso de funcionamiento (Normas y Procedimientos) que corresponden a la parte de implantación de esta investigación también juegan un papel fundamental para poder garantizar su impacto social y económico.

    Venezuela no debe escatimar esfuerzos y recursos en la lucha contra el delito grave de legitimación de capitales, ya que el bienestar social y económico de los pueblos es una obligación que se debe defender a toda costa y con todas las herramientas disponibles, por más leve que sean los beneficios obtenidos.

     

     

    Las conclusiones finales de nuestro trabajo
     

     

    Cada vez más, la lucha contra el tráfico de drogas y la legitimación de capitales adquiere visos de verdadero combate, y la información forma parte del arsenal de guerra. Además, se admite que los medios tradicionales utilizados por los servicios de represión no se adaptan a las técnicas ni a los métodos empleados por los traficantes. La información se considera ya un medio apropiado y justificado para luchar contra la delincuencia organizada. Asimismo, da resultados más alentadores, como lo prueba el éxito de las operaciones de infiltración y de "entrega vigilada" realizadas desde hace algunos años por los servicios de lucha contra las drogas en los países occidentales. Quizá convendría desarrollar la plataforma de información de manera más organizada y más sistemática en la lucha contra la legitimación de capitales.

    Otra conclusión es que no existe un sistema modelo que pueda aplicarse universalmente. La elección por parte del estado de la opción policial, judicial o administrativa se decide la mayoría de las veces en función de criterios inherentes al funcionamiento de esas instituciones o a su cultura jurídica.

    Un sistema eficaz que tenga en cuenta las necesidades de la lucha contra la legitimación de capitales debe poder alcanzar cuatro objetivos:

    La eficacia del dispositivo depende de la pertinencia del sistema de procesamiento que se escoja, en función del contexto. El modo en que se estructura la lucha contra la legitimación de capitales no depende de reglas fijas y científicas. En cambio depende en mucho de los factores propios de cada país:

    De todo esto se plantea la cuestión de saber si logra algún efecto sobre la realidad de la legitimación de capitales y si puede tener una repercusión considerable sobre la delincuencia organizada. Es demasiado pronto para decirlo, pero se puede lamentar desde ya que los esfuerzos permitidos por los estados a nivel nacional no se prolonguen a nivel internacional. La legitimación de capitales es una actividad internacional por su propia naturaleza, pero los organismos encargados de luchar contra ella solamente tienen jurisdicción a nivel nacional, rompiendo los esquemas globalizadores de finales de siglo y las nuevas tecnologías en el área de las comunicaciones que ya caracterizan al nuevo siglo.

    Quizá actualmente sea oportuno reflexionar sobre la viabilidad de establecer un organismo internacional de procesamiento de la información, a fin de continuar con los esfuerzos de los organismos centrales de los estados; esfuerzos que, a falta de una superestructura internacional, corren el riesgo de no cumplir con sus objetivos.

    Por último queremos destacar que la sola buena intención en la lucha contra la legitimación de capitales no es suficiente, es necesario e imperativo disponer de las herramientas mínimas e indispensables para que esta batalla sea ganada, pues solo el más fuerte tecnológicamente sobrevivirá. La tecnología de la información es la llave del triunfo y la gerencia tecnológica es la mano ejecutora al ser la que gestiona los recursos con que se batalla.

     


    Bibliografía  

    y accesos a Internet

     

     

    ACKOFF, Russell. “Planificación de la empresa del futuro”. México. Editorial Limusa. 2ª edición, 1997.

    ARIAS, Fidias G. “El proyecto de investigación, guía para su elaboración”. Venezuela. Editorial Episteme. 2ª edición, 1997.

    ASSOCIATION SUISSE DES BANQUIERS. “Convention relative á l’obligation de diligence des banques”. France, 1992.

    ASSOCIATION OF RESERVE CITY BANKERS. “Survay of suspicios transactions, final report of the subcomité and task force on money laundering”. USA, Washington, septiembre 1992.

    AUSTRAC. “Australian transaction report and analysis center”. Internet, enero 2000. http://www.austrac.gov.au

    AUSTRAC. “Estimates of exent of money laundering in & through Australian”. Septiembre, 1995

    BACA URBINA, Gabriel. “Fundamentos de ingeniería económica”. México. Editorial McGraw Hill. 1ª edición, 1994.

    BALASUBRAMANIAN, V. “Organizational learning and informations systems”. Internet, diciembre 1998. http://eies.njit.edu/~333/orglrn.html

    BALESTRINI ACUÑA, Mirian. “Como se elabora el proyecto de investigación”. BL Consultores Asociados Servicio Editorial, Caracas Venezuela. 1ª edición, 1997.

    BLANK, Leland T. & TARQUIN, Anthony J. “Ingeniería económica”. México. Editorial McGraw Hill. 3ª edición, 1992.

    BEAUFRE, André. “Introducción a la estrategia”. Buenos Aires. Editorial Struhart Cia. 3ª edición, 1982.

    BEER, Stafford. “Decisión y control”. México. Editorial Fondo de cultura económica, 1982.

    BERTALANFFY, Ludwigvon. “Teoría general de sistemas”. México. Editorial Fondo de cultura económica, 3ª reimpresión, 1991.

    BRUH, Bryan & NOWAK, David. “US department of treasury, financial crimes enforcement network”. USA. Editorial FINCEN, marzo-abril 1994.

    CASTILLO RIVAS, Christian.. “Diseño de una propuesta de Liderazgo Participativo para elevar la productividad del Supermercado y Frutería California, C.A.”. Internet, octubre de 1999 http://www.geocities.com/WallStreet/Exchange/3447/

    CERVO A. & BERVIAN P. “Metodología científica”. México. Editorial McGraw Hill. 1989.

    CHAIN, Nassir Sapag. “Criterios de evaluación de proyectos”. España. Editorial McGraw Hill, serie McGraw Hill de management. 1ª edición, 1995.

    CHAVEZ, Milthon. “Uso eficaz de la tecnología de información como herramienta de control de la legitimación de capitales”. Venezuela. Primer seminario integral de formación, junio 1999.

    CICAD. “Unidades de información financiera (UIF’S)”. Buenos Aires. Propuesta de la delegación argentina, mayo 1997.

    CICAD. “Documento de trabajo para el proyecto de constitución de la red interinstitucional contra la legitimación de capitales”. Buenos Aires. Propuesta presentada por la delegación venezolana, mayo 1997.

    COMPTON'S NEW MEDIA INC. “Compton´s Interactive Encyclopedia”. Copyright 1995.

    COOPERS & LYBRAND. “Narcotics money laundering in the Caribbean region: a vulnerability assessment”. OEA, 1994.

    CORRIGAN, Patrick & GUY Aisling. “Building local area networks”. USA. Editorial M&T Books. 1ª edición, 4ª reimpresión, 1995.

    CTIF. “Cellule de traitement des informations financieres”. Bruselas. 2éme rapport d’activitiés, 1995.

    DAVID, Fred. “La gerencia estratégica”. Colombia, Santa Fe de Bogotá. Legis Editores. 1ª edición, 1994.

    DROR, Yehezkel. “Enfrentando el futuro”. México. Fondo de cultura económica. 1ª edición, 1992.

    GILMORE M., W. “Dirty money, the evolution of money laundering counter measures”. Estrasburgo. Council of Europe Press, 1995.

    GOLD, M. & LEVI, M. “Money laundering in the United Kingdom: an appraisal of suspicion based reporting”. Londres, 1994.

    HONG, N et al. “System Theory”. Internet, febrero de 1999. http://www.ed.psu.edu/~ae-insys-wfed/INSYS/ESD/Systems/theory/SYSTHEO2.htm

    LE GROUPE EGMONT. “La premiére réunion internacionales des services chargés de lutter contre le blanchinment d’argente”. Burselas, 1995.

    LEVIS, M. “Incriminating disclosures: an evaluation of money laundering regulations in England and Wales”. European journal of crime, criminal law and criminal justice, 1995.

    MICROSOFT CORPORATION. “Microsoft Encarta 97 Encyclopedia”. Copyright 1997

    MOTOROLA UNIVERSITY PRESS. “The basics book of information networking”. USA. Editorial Addison-Wesley Publishing Company.1ª edición, 2ª reimpresión, 1992.

    NACIONES UNIDAS. “Mecanismos de procesamiento de la información financiera en materia de blanqueo de dinero”. USA. Programa de las Naciones Unidas para la fiscalización internacional de las drogas, 1996.

    POPP, K. “System Thinking”. Internet junio de 1999. http://www.ed.psu.edu/~ae-insys-wfed/INSYS/ESD/Systems/theory/KPSystems.htm

    POWIS, Roebert E. “Bank secrety act compliance”. USA, Washington. The bank administration institute. 3ª edición, 1995.

    PRESSMAN, Roger S. “Ingeniería del software, un enfoque práctico”. España. Editorial McGraw Hill. 3ª edición, 1993.

    RAMIREZ B., M. “La cuestión de las drogas en América Latina”. Venezuela. Monte Ávila Editores, 1990.

    RAMÍREZ B., M. y Zambrano, Killian. “Manual para la prevención y control del delito grave de legitimación de capitales”. Venezuela. Editorial IECAB, 1999.

    RAPPORT DU GROUPE D’ACTION FINANCIÉRE. “La lutte contre le blanchiment dus capitaux”, La documentstion Francaise, 1990.

    RAUFER, X. “Les superpuissances du crime, enquête sur le narco-terrorisme”, 1993.

    SABINO, Carlos. “El proceso de investigación”. Venezuela. Editorial Panapo. 2ª edición, 1992.

    SABINO, Carlos. “Como hacer una tesis”, Guía para elaborar y redactar trabajos científicos. Venezuela. Editorial Panapo.1ª edición, 1987.

    SANDERS, Donald H. “Informática. Presente y futuro”. México. Editorial McGraw Hill. 3° Edición, 1990

    TACKETT, Jack & Gunter, David. “Linux”. España. Editorial Prentice may Iberia. 3ª edición, 1998.

    TANENBAUM, Andrew S. “Organización de las computadoras. Un enfoque estructurado”. Editorial Prentice Hall. 2ª edición, 1985.

    THUROW, Lester. “La guerra del siglo XXI”. Traducida de la original en inglés "Head to head", 1992. Editorial Vergara. 1ª edición, 1995.

    UNIVERSIDAD NACIONAL ABIERTA. “Técnicas de documentación e investigación I ”. Venezuela. Editado en los talleres gráficos de la UNA. 3ª reimpresión, 1995.

    UNIVERSIDAD NACIONAL ABIERTA. “Técnicas de documentación e investigación II ”. Venezuela. Editado en los talleres gráficos de la UNA. 5ª edición, 1ª reimpresión, 1985.

    WREN, Tim. “The enforcement and confiscation law in Great Britain”. Londres, 1991.

    XENA CONSULTORES C.A. “Control estadístico de procesos”. Material de apoyo editado e impreso por la empresa Xena Consultores C. A., 1990.

     


    Apéndices  

    y notas

     

     

    En esta sección se exponen algunos conceptos teóricos que no fueron discutidos en el marco teórico ya que no se corresponden con el alcance del trabajo en función de sus objetivos, pero que sin embargo queremos anexar como fuente complementaria de conocimientos que ayuden a entender al lector no experimentado en este campo y que además le haga fácil el trabajo de investigación al no tener que acudir a otros medios de información. Es por ello que hicimos una selección de los temas de mayor impacto y los exponemos en forma breve en estos apéndices.

     


    Apéndice 1  

    Telemática, autopista de la información e Internet

    Internet: La Red de Redes

     

     

    Internet representa una red pública de carácter académico-científico (y recientemente también comercial) de dimensiones gigantescas. Internet proviene de la antigua ARPAnet, una de cuyas finalidades era unir en red a los investigadores para así permitir el acceso a computadores remotos, que no estuvieran disponibles en sus propias instituciones. ARPA (Advanced Research Project Agency, adscrita al Departamento de Defensa de los Estados Unidos) pensó que una red para conectar a diferentes organizaciones sería menos costosa que adquirir un nuevo y gran computador para cada una de ellas. Las organizaciones podrían usar la red para conectarse en los computadores de las demás y transferir los archivos entre ellas. Este enfoque influenció el nombre de los elementos constituyentes de la red: los computadores a los cuales se conectaban los usuarios fueron llamados hosts (anfitriones), ya que las personas de afuera podrían entrar como huéspedes. También influenció la terminología del protocolo de red, ya que los procesos o los computadores con recursos a compartir fueron llamados servidores y los procesos y computadores que usaban esos recursos fueron llamados clientes. Los servicios como ftp y telnet eran parte del plan original de la red y fueron implementados inmediatamente después que los primeros nodos de ARPAnet entraron en funcionamiento en 1969. El lenguaje utilizado en ARPAnet fue el UNIX, que sigue siendo el más popular en ambiente académico. La facilidad de correo electrónico que suministraba la red fue considerada secundaria, sin embargo rápidamente se convirtió en una de sus características más populares. Los científicos usaban ARPAnet para intercambiar ideas en forma espontánea y casual; los estudiantes de postgrado discutían problemas con sus profesores sin importar su ubicación física; los responsables de proyectos de investigación usaban el correo electrónico para coordinar las actividades con los miembros del proyecto y para estar en contacto con otros grupos de investigación y con los entes que suministraban los fondos. De esta forma se formaba rápidamente una comunidad compuesta por personas que raramente se veían cara a cara. Si bien algunos administradores de red objetaban el correo electrónico porque no lo consideraban como un uso legítimo de tiempo de máquina, la demanda para mejores y más conexiones creció rápidamente. El correo electrónico es extremadamente rápido en comparación con el servicio postal, (denigrado como correo de caracol: snail mail) y se puede enviar un mensaje al otro lado del globo en minutos. Los usuarios pronto descubrieron que a menudo querían enviar el correo no únicamente a una persona específica, sino también a un grupo de personas. Así surgieron las listas electrónicas, que fueron implementadas usando el alias (pseudónimo), esto es nombres que parecían como nombres normales de un buzón electrónico, pero que eran luego expandidos como una lista de direcciones de entrega.

    El crecimiento de Internet fue acelerado por la aparición de la versión 4.2 del sistema operativo Unix en 1983 y sus posteriores revisiones, las cuales contenían la implementación del conjunto completo del TCP/IP (Transmission Control Protocol / Internet Protocol) sin costo alguno, ya que su desarrollo se había hecho con fondos públicos. Nuevas compañías, tales como SUN Microsystems, se formaron para sacar ventaja de los avances tecnológicos. SUN desarrolló el NFS (Network File System) que permite el acceso remoto a archivos como si fuese local (a diferencia de ftp, donde el usuario debe transferir explícitamente el archivo antes de usarlo localmente). El X Windows System fue desarrollado por el Proyecto Athena del MIT, cerca de 1984. Internet está evolucionando continua y rápidamente. Los usuarios intercambian vía ftp archivos en formato postscript o GIF y JPEG (que permiten gráficas), pero ya se han hecho pruebas para transmitir aplicaciones con multimedios y existen formatos para transportar mensajes que contengan imágenes, audio, video al mismo tiempo que texto, tal como MIME (Multipurpose Internet Mail Extensions) y HTML (Hypertext Markup Language).

    Internet ofrece cada día recursos más novedosos y herramientas más fáciles de usar (archie, gopher, Mosaic, Netscape, etc.) para facilitar los servicios que se ofrecen. Los protocolos de comunicación para los servicios básicos que se consiguen en la Internet (y en generales en redes de computadores que trabajan en ambiente TCP/IP) son:

    El acceso y el uso de los servicios que ofrece Internet se ha vuelto un tema de moda tanto en ambiente académico como comercial, por lo cual existe en la actualidad una abundante literatura, disponible gratuitamente en la propia red. Un compendio relativamente completo y actualizado ha sido efectuado por este autor bajo el título: "A Guide to Internet Tools and Resources", UCV, Caracas, Venezuela, 1995.

    A los protocolos usados en Internet se les da una clasificación dentro de dos grupos de categorías independientes. La primera categoría se refiere al estado de normalización que indica si es ya una norma, o próximo a ser una norma, o una sugerencia, o que está en estudio, o finalmente si es un protocolo histórico (Standard, Draft Standard, Proposed, Experimental, Historic). La segunda categoría es el estado del protocolo en si y puede ser obligatorio, recomendado, electivo o finalmente rechazado (Required, Recommended, Elective, Not Recomended). Toda la información acerca de TCP/IP e Internet, su operación, los protocolos que se manejan, etc. está en unos documentos llamados modestamente RFC (Request For Comments), disponibles en varios puntos de la red. Se pueden pedir enviando un e-mail a service@nic.ddn.mil, indicando que se quiere el RFC-xxxx (Subject: send RFC-xxxx.TXT). Por ejemplo, el protocolo IP, que viene descrito en el RFC-791, tiene la clasificación de Estándar Obligatorio (Required Standard Protocol), lo cual denota que es una norma obligatoria de cualquier usuario conectado a Internet. El protocolo TCP tiene la clasificación de Estándar Recomendado (Recommended Standard), lo que indica que es una norma recomendada para el acceso a Internet sin carácter obligatorio, pero el no usarla puede afectar la operatividad de la red; TCP viene descrito en el RFC-793. El FTP está descrito en el RFC-959 y TELNET en los RFC-854 y RFC-855.

    TCP/IP es un stack o suite de protocolos de comunicación entre redes de datos y fue desarrollado inicialmente por DARPA de los Estados Unidos a finales de los años 70, para ser usado como soporte de la red de investigación Arpanet, la cual a su vez posteriormente se convirtió en Internet. TCP/IP no está basado en el modelo OSI (Open System Interconnection) ya que tiene más de 10 años de adelanto y fue desarrollado para permitir que los computadores de una red pudieran trabajar en forma cooperativa y compartir sus recursos dentro de un ambiente de red. TCP e IP son los dos más conocidos del grupo de protocolos TCP/IP, de allí que todo el conjunto lleve tal denominación. Actualmente TCP/IP se ha vuelto muy popular, principalmente para uso en redes locales y redes de área amplia. De hecho, TCP/IP es muy utilizado en el campo militar en los Estados Unidos, pero ahora es ya común en el sector comercial del mundo entero y los fabricantes de computadores y de equipos de área local están ofreciendo productos basados en TCP/IP. Con el tiempo es posible que TCP/IP sea suplantado por OSI, en primer lugar porque el concepto de estándar internacional es actualmente ampliamente aceptado por usuarios y vendedores y en segundo lugar TCP/IP es un conjunto de protocolos con menor funcionalidad que los estándares OSI que evolucionan continuamente. Mientras tanto, ambos pueden coexistir e ínter operar utilizando gateways en el ámbito de las capas superiores.

    TCP/IP se usa extensamente en ambientes de investigación, universidades, manufactura e ingeniería. Es un protocolo que fue concebido originalmente para diseminar información a una comunidad muy dispersa y del mismo estilo. Pero ahora, ya como un estándar de facto, se está usando ampliamente en redes multiprotocolares. TCP/IP representa un conjunto relativamente estático de protocolos que suministran sus funciones de una manera sencilla, práctica, mientras que el estándar OSI es más complejo, con protocolos más densos, pero con mayor funcionalidad, entre otras cosas porque los desarrollos en cada una de sus capas evolucionan continuamente. Algunos de los protocolos de la familia TCP/IP suministran los servicios de bajo nivel, correspondientes a las tres capas inferiores del modelo OSI; estos incluyen TCP, UDP, ICMP, IP. Los otros protocolos de la familia TCP/IP están orientados a las capas superiores, de aplicación y presentación, y están dirigidos a tareas o servicios específicos como correo electrónico, transferencia de archivos y acceso remoto.

    El protocolo de red (IP) es del tipo sin conexión y fue diseñado para manejar la interconexión del vasto número de redes que formaban Arpanet. El protocolo de transporte (TCP) está orientado a conexión y está basado en el UNIX de Berkeley y no hay capas de sesión y presentación. Se puede entonces decir que IP es aproximadamente equivalente a la capa 3 del modelo OSI y TCP es aproximadamente equivalente a la capa 4. La capa de acceso a la red enruta los datos entre dos dispositivos en una misma red y en aquellos casos de que los dos dispositivos estén en redes distintas se requieren procedimientos para permitir que los datos atraviesen múltiples redes; esta es precisamente la función de la capa de red y se usa el IP en esta capa para suministrar las funciones de enrutamiento a través de las redes. El IP se implementa en cada computador, terminal y gateway (siendo este último un dispositivo genérico de interconexión). El IP acepta los datos del TCP en data gramas llamados PDU (Protocol Data Unit) y los envía a través de los gateways necesarios hasta que alcancen su destino. La dirección IP es de 32 bits y el tamaño máximo de un PDU es de 65535 octetos (64KB). IP suministra un servicio de tipo sin conexión no confiable, esto es, algunos PDUs puede que nunca lleguen a su destino o si llegan puede que estén fuera de secuencia. Es función de TCP el asegurar la entrega confiable de los datos, o sea que TCP suministra una forma confiable de intercambio de datos entre procesos en diferentes computadores. TCP asegura que los datos sean entregados sin errores, en secuencia, sin pérdidas o duplicaciones. TCP fue diseñado para operar sobre una amplia variedad de redes y para suministrar un servicio de circuito virtual con transmisión ordenada y confiable, es decir que está orientado a conexión y sirve como base para una comunicación confiable sobre una red no tan confiable, donde puede ocurrir pérdida, daño, duplicación, retardo y desordenamiento de los paquetes. Es un protocolo algo complejo que tiene que resolver el caso de paquetes perdidos y problemas patológicos (tal como el manejo de paquetes duplicados por retardos). TCP posee su definición del concepto de paquete, llamado segmento, y permite que sea de hasta 64 kB. Se emplea un mecanismo de ACK positivo con retransmisión para corregir la pérdida de datos en las capas inferiores. Con este método el transmisor retransmite los mismos datos a intervalos preestablecidos hasta que le llega un ACK positivo. Por encima de TCP hay protocolos para distintos servicios, tales como telnet, ftp, smtp, etc.

    Por debajo de IP se pueden utilizar distintos protocolos en el ámbito de enlace. Por ejemplo HDLC, el ya viejo SLIP (Serial Line Interface Protocol) o el reciente PPP (Point to Point Protocol) para WANs con conexiones punto a punto y Ethernet para LANs. IP se puede también "encapsular" en X.25, frame relay y ATM para así despacharlo sobre redes públicas de paquetes. En el punto de destino es "desencapsulado".

    IP se limita a las funciones básicas necesarias para entregar un data grama, esto es un bloque de datos, a través de una inter-red. Cada data grama IP es una entidad independiente, sin relación con los otros data gramas. Como se ha dicho, IP no asegura un servicio confiable; los nodos que reciben datagramas IP los pueden desechar si no tienen en ese momento suficientes recursos disponibles para su procesamiento y no están en capacidad de detectar datagramas perdidos o desechados por la capa inferior. IP aísla los protocolos de capas superior de las características específicas de la red y también acomoda el tamaño de los paquetes de acuerdo a las restricciones de las redes intermedias. Los servicios adicionales de IP incluyen características tales como precedencia, confiabilidad, retardo y caudal. IP empaqueta los datos como un data grama IP y lo pasa a la capa inferior para su transmisión a través de la red. Cuando el punto de destino se encuentra en otra red, el data grama va primero a un gateway local, el cual a su vez lo envía a través de la siguiente red al punto de destino (o a otro gateway). Así que un data grama se mueve de un módulo IP a otro hasta alcanzar el destino. Los gateways (también llamados routers IP) son efectivamente relés de data gramas que interconectan 2 o más redes. Cada gateway contiene un módulo IP que usa reglas para interpretar las direcciones y se toman decisiones de enrutamiento sobre la base de cada data grama individual. El gateway debe decidir cuál red debe ser usada para el data grama que está en curso. También debe decidir si el punto de destino es en la siguiente red (en cuyo caso el data grama puede ser enviado directamente) o si hay que despacharlo a otro gateway para que lo retransmita a una red distante. Así que cada gateway debe adquirir información sobre otros gateways y sobre las rutas disponible para alcanzar cualquier otro nodo. Esta información se adquiere y se mantiene dinámicamente de acuerdo a la conectividad instantánea que suministran todos los gateways de la red. Con los años se han ido desarrollando varios protocolos de gateway a gateway que tratan de optimizar este intercambio de información. Los data gramas IP en tránsito pueden atravesar una parte de la red para la cual el tamaño máximo permitido para los paquetes es inferior al tamaño del data grama. Para manejar esta situación, IP posee un mecanismo de fragmentación y reconstrucción de paquetes, es decir que los divide en pedazos que sean de un tamaño apropiado a su transmisión. Pero estos fragmentos pueden llegar fuera de orden, así que hay que re-ensamblarlos luego correctamente.

    Uno de los objetivos de TCP/IP es proveer servicios en un ambiente muy heterogéneo, así que el mecanismo de direccionamiento ha sido diseñado para permitir 3 clases distintas de posibles configuraciones de red. Las 3 clases de dirección IP son las siguiente:

    Clase A: Muchos computadores sobre pocas redes;

    Clase B: Una distribución pareja de computadores y redes;

    Clase C: Pocos computadores sobre muchas redes.

    Como ya se mencionó, las direcciones IP son de 32 bits, agrupados en 4 octetos (4 grupos de 8 bits); estos octetos se representan con números decimales separados por un punto (.). Los tres primeros octetos de la dirección IP representan la sub-red y el último indica el host de dicha subred que está en el servicio. Más específicamente, el primer octeto permite identificar la clase y la clase A corresponde a un número entre 0 y 127, la clase B a un número entre 128 y 191 y la clase C a un número entre 192 y 223. Por ejemplo, una dirección clase A, agrupada en octetos, podría ser 10.1.17.1, ya que 10 corresponde a la clase A.

    Mayor información sobre los protocolos TCP/IP se puede encontrar en la bibliografía y en el trabajo de este mismo autor titulado: Network Interconnectivity with TCP/IP: Protocols, addressing, routing, UCV, Caracas, Venezuela, 1995.

    Es interesante comparar TCP/IP con X.25, ya que existen diferencias sutiles e importantes entre ellos. Una primera diferencia tiene que ver con la forma de asegurar la transferencia de datos. En X.25 se efectúa la detección y recuperación de errores en la capa 2 y 3, ya que es un protocolo orientado a conexión. A nivel de enlace, el protocolo LAPB garantiza que la transferencia correcta de datos entre un terminal y el nodo al cual se conecta sea correcta. Cada pedazo de datos transferido viene con su chequeo de errores y el receptor confirma la recepción de cada trama. El protocolo a nivel de enlace usa temporizadores y algoritmos de retransmisión que impiden la pérdida de datos y proveen recuperación automática luego de fallas y reinicialización. La capa 3 también se encarga de detección y recuperación de errores para los paquetes que se transfieren a través de la red, usando chequeo, temporizadores y técnicas de retransmisión. Finalmente la capa 4 se debe a su vez ocupar de la confiabilidad de extremo a extremo. En contraste. TCP/IP basa su estructura por capas en el principio de que la confiabilidad es sólo un problema de extremo a extremo. La filosofía de su arquitectura es simple: Construir la red interconectada de manera que pueda manejar la carga esperada, pero permitir que los enlaces individuales o los nodos y terminales puedan perder datos o dañarlos sin tratar de recuperarse continuamente. De hecho, hay poca o ninguna confiabilidad en las capas inferiores a TCP, el cual en cambio se ocupa en buena parte de la detección de errores y de la recuperación por esos errores. La libertad resultante hace que TCP/IP sea mucho más fácil de entender e implementar correctamente. Los gateways intermedios pueden desechar data gramas que resultan dañados por errores de transmisión, pueden desechar datos que no pueden ser entregados o cuando su tasa de llegada excede la capacidad de los buffers de entrada. Así mismo pueden enrutar data gramas a través de rutas que posean mayor o menor retardo, sin informar de esto al punto de origen o de destino. El tener enlace no confiables significa que algunos data gramas no van a llegar. La detección de errores y la recuperación de pérdidas de data gramas se efectúa entre la fuente y el destino, es decir de extremo a extremo.

    Otra diferencia resalta cuando se considera la supervisión y el control. Como regla general, X.25 se basa en la idea que una red es un sistema que provee un servicio de transporte. El proveedor de servicio controla el acceso a la red y monitorea el tráfico para fines de tasación. Se ocupa también de los problemas de enrutamiento, control de flujo y confirmación de recepción de datos, garantizando que la transferencia de información sea confiable. Este punto de vista deja muy poco que hacer a los terminales. Es decir que la red es un sistema complejo, independiente, al cual uno le conecta terminales relativamente simples. En contraste TCP/IP requiere que los terminales participan activamente en los protocolos de red. Así que puede ser visto como un sistema relativamente simple de red de paquetes al cual se conectan terminales inteligentes.

    TCP/IP es comparable a la clase 4 de la capa de transporte OSI. En efecto, la OSI ha definido 4 clases a nivel de dicha capa, desde TP0 a TP4. Esta gama de sofisticación, de simple a compleja, es para poder operar en una amplia variedades de ambientes. La más simple, TP0, asegura muy poco en lo que se refiere a control de flujo y confiabilidad. Es para usarse en un ambiente como el de X.25, donde la red subyacente ofrece un servicio orientado a conexión, confiable. La más compleja, TP4, se asemeja a TCP. Se asume que la red subyacente sólo suministra la entrega de paquetes en forma sin conexión, no confiable, con el mejor esfuerzo. De manera que TP4 maneja el problema de datos perdidos, control de flujo, gestión de ventanas de transmisión y de datos que llegan fuera de secuencia.

    Es oportuno mencionar que con protocolos completos como TCP/IP, el caudal neto aprovechable en una red puede disminuir significativamente. Por ejemplo, hoy día con TCP/IP sobre redes de fibra (FDDI) la transferencia de archivos está limitada a unos 33 Mbit/s sobre el máximo teórico de 100 Mbit/s; análogamente TCP/IP sobre Ethernet puede transferir a 1.5-6 Mbit/s sobre un máximo teórico de 10 Mbit/s. Una de las fuente de degradación con TCP/IP es la sobrecarga presencia de los octetos en el header usados para direccionamiento y control de errores. Este overhead puede producir una degradación apreciable del rendimiento, que es más aparente si se usan paquetes pequeños. Otro ingrediente es el retardo asociado con el cálculo de la suma de chequeo (checksum), usada para verificar la integridad de los datos. En efecto, antes de que una estación pueda enviar su paquete, debe primero calcular este checksum y añadirlo al header del paquete. En el extremo opuesto, el nodo de destino debe hacer los mismo con el paquete recibido y luego comprobar si las sumas coinciden. Otra fuente de degradación tiene que ver con el copiado repetitivo de datos, lo cual se efectúa cada vez que un paquete es encapsulado en una nueva capa del protocolo. De hecho, antes de que los datos de una aplicación puedan ser trasmitidos, ellos deben ser procesados a diferentes niveles del protocolo. En una red con TCP/IP donde se use FTP, por ejemplo, la aplicación de usuario (capas 6 y 7 OSI) envía un archivo a la capa FTP (capa 5 OSI), la cual subdivide los datos en tramas y los envía a la capa TCP (capa 4 OSI), la cual a su vez los reformatea como paquetes TCP. Este proceso se repite en la capa IP (capa 3 OSI) y en la capa MAC (capa 2 OSI), la cual es responsable finalmente de transmitir los paquetes sobre el medio físico (capa 1 OSI). El mismo proceso se efectúa en sentido contrario cuando se recibe un paquete. El retardo asociado con el copiado de paquetes a través de múltiples capas depende de muchos factores, incluyendo la velocidad del procesador, la capacidad de memoria, el tamaño de los paquetes y las características de la tarjeta de red en el computador. Los paquetes que se reciben fuera de orden (lo cual es un problema común en redes grandes con rutas múltiples) también contribuyen al overhead. En muchas aplicaciones con TCP/IP, la estación de destino monitorea una gama de paquetes dentro de una ventana, identificados por su número de secuencia; si los paquetes asociados con una dada comunicación no llegan a tiempo, la estación no va a aceptar ninguno de ellos y todos los paquetes dentro de la ventana deben ser retransmitidos.

    Con TCP/IP se están difundiendo las aplicaciones llamadas cliente-servidor. El término servidor se aplica a cualquier servicio que pueda ser ofrecido en la red. El servidor acepta las solicitudes que les llegan, efectúa su servicio y devuelve el resultado al solicitante. Para los servicios más simples, cada solicitud llega en un solo data grama IP y el servidor devuelve su respuesta en otro data grama. Un programa que se ejecuta en una estación se vuelve un cliente cuando envía una solicitud a un servidor y espera por una respuesta. Los servidores pueden realizar tareas simples o complejas, por ejemplo un servidor del tipo hora del día meramente regresa la hora actual cada vez que un cliente la solicita. Un servidor de archivos recibe solicitudes para efectuar operaciones que almacenan o devuelven información desde un archivo; el servidor efectúa la operación y regresa el resultado. La arquitectura cliente-servidor permite compartir bases de datos, impresoras y una variedad de otros periféricos y aplicaciones (locales o remotas). Estos beneficios se obtienen sin importar que existan equipos de diferentes marcas en la instalación. Así, los problemas de utilizar diferentes protocolos y de ubicar los recursos remotos se vuelven transparentes para el usuario. El resultado neto consiste en maximizar las opciones del usuario y el rendimiento efectivo de la red, al mismo tiempo que se minimiza el tiempo de respuesta del sistema y el tiempo requerido por los usuarios para localizar y conectarse a los servicios deseados. La arquitectura cliente-servidor es más un estilo de computación que una técnica particular. Es un estilo que trabaja con muchas plataformas y en muchos ambientes. Si bien no existe una definición precisa, hay algunos aspectos claves en este sistema: es transparente, lo cual significa que cualquier usuario puede utilizar cualquier recurso de la red sin importar el tipo de máquina y su ubicación; es distribuido, permitiendo que los recursos de la red estén localizados donde sea más conveniente, por lo general cerca de los usuarios principales y, por supuesto, está en red, requiriendo que las aplicaciones utilicen los recursos de la red y cooperen con otras aplicaciones a lo largo de toda la red. El concepto cliente-servidor ha ido surgiendo simultáneamente con las redes ya que se presta muy bien a los sistemas de computación distribuidos y heterogéneos. El propio término cliente-servidor implica una aplicación distribuida; es más, las aplicaciones cliente-servidor abren nuevas oportunidades de obtener el máximo provecho de la computación distribuida, pero algunos expertos afirman que se requiere una mayor inter-operabilidad para asegurar su éxito, tanto en términos de hardware que de software.

    El sistema de correo electrónico utilizado en Internet se basa en el protocolo SMTP (Simple Mail Transfer Protocol), descrito en los documentos RFC-821 y RFC-822, aunque recientemente también se dispone del POP (Post Office Protocol). Este correo permite un conjunto algo limitado de funcionalidades, pero así se facilita la interconexión con otros sistemas. Se hará una descripción muy general del protocolo SMTP partiendo del siguiente ejemplo (tomado del trabajo de Charles Hedrick: "Introduction to the Internet Protocols", Rutgers University, 1987), en el cual un usuario de un computador llamado TOPAZ localizado en la Universidad de Rutgers, New Jersey, desea comunicarse con otro usuario de otro computador (RED) en la misma universidad para acordar la hora de una cita:

    Date: Sat, 27 Jun 93 13:26:31 EDT
    From: hedrick@topaz.rutgers.edu
    To: levy@red.rutgers.edu
    Subject: meeting
    Let's get together Monday at 1pm.
     

    En el RFC-822 se describe el formato del mensaje en si. Se especifica que el mensaje debe ser transmitido como un archivo ASCII (caracteres ASCII de 7 bits y delimitación de líneas con carriage return/linefeed); estos archivos no contienen caracteres especiales como símbolos, caracteres gráficos, vocales acentuadas, etc., y son tratados en la generalidad de los programas como texto común. Los mensajes de sistemas de correo privados deben transformarse a texto antes de ser pasados a Internet. En el RFC-822 también se describe la estructura general del mensaje, con las líneas del encabezado, una línea en blanco y finalmente el cuerpo del mensaje. También se describen en detalle las líneas del encabezado, cada una de las cuales consta de una palabra clave (Date:, From:, To:, Subject:) y un valor. El RFC-821 describe la forma en que el mensaje se manda a otro sistema. El programa debe determinar el enrutamiento del mensaje; primero se pregunta, a un servidor de nombres, por las máquinas que manejan correo para el dominio especificado y después se pregunta por la dirección Internet. Estas direcciones son de 32 bits, agrupados en 4 octetos (4 grupos de 8 bits); estos octetos se representan con números decimales separados por un punto (.), de acuerdo al protocolo IP. Los tres primeros octetos representan la sub-red y el último indica el host de dicha subred que está en el servicio. Para el ejemplo se usará 128.6.4.2. A este nivel el programa de correo abre una conexión TCP al puerto 25 en 128.6.4.2. El puerto 25 es usado para la recepción de correo, es la ranura (slot) reconocida para conectarse al servidor de correo; en el caso de otros servicios, como la transferencia de archivos (protocolo FTP), la conexión se abre al puerto asignado, 21 es la ranura asignada al servidor FTP. Una vez establecida la conexión, el programa de correo inicia los comandos de despacho, y se genera una 'conversación' entre las máquinas conectadas que en el ejemplo presentado puede lucir de la siguiente manera:

    RED 220 RED.RUTGERS.EDU SMTP Service 29 Apr 95 05:17:18 EDT
    TOPAZ HELO topaz.rutgers.edu
    RED 250 RED.RUTGERS.EDU - Hello, TOPAZ.RUTGERS.EDU
    TOPAZ MAIL From:
    RED 250 MAIL accepted
    TOPAZ RCPT To:
    RED 250 Recipient accepted
    TOPAZ DATA
    RED 354 Start mail input; end whith.
    TOPAZ Date: Thu, 27 Apr 95 13:26:31 EDT
    TOPAZ From: hedrick@topaz.rutgers.edu
    TOPAZ To: levy@red.rutgers.edu
    TOPAZ Subject: meeting
    TOPAZ
    TOPAZ Let's get together Monday at 1pm.
    TOPAZ .50 OKQUIT 21Service closing transmission channel

    Todos los comandos entre las máquinas son texto ASCII, típico de los estándares de Internet; estos comandos ASCII facilitan el monitoreo de la "conversación", así como el diagnóstico y solución de ciertos problemas que puedan surgir en el transcurso de la misma, permitiendo que los técnicos supervisores hagan pruebas e interactúen directamente con el servidor de correos. Es de hacer notar que la tendencia de los protocolos en la actualidad es a usar formatos binarios mas complejos, organizados en estructuras como los programas en Pascal o en C; esto no resulta tan práctico pues su sintaxis requiere de un mayor análisis, sin embargo también es cierto que se puede manejar un mayor número de comandos para adaptarse a los nuevos servicios que prestan estos protocolos. Otro aspecto interesante también típico de los protocolos de Internet, es que las respuestas en la conversación entre las máquinas se inician con un número y después se complementan con texto. El número indica que las respuestas posibles a las requisiciones ya están definidas en el protocolo, y el programa usuario contesta sin ambigüedad. El texto no tiene efecto en la operación de los programas y normalmente se utiliza para monitorear la conversación. El protocolo define el grupo de respuestas a un comando dado. En el formato sencillo del SMTP, el primer dígito del número ya da información del tipo de respuesta, por ejemplo, el 2 indica un suceso, el 3 indica que es necesario una acción adicional; 4 es un error temporal como que la unidad de almacenamiento esta llena y no se puede guardar el mensaje. El 5 indica error permanente (como cuando no existe el usuario receptor especificado). Los comandos permiten al programa de correo indicar al servidor de correo, la información necesaria para la entrega de los mensajes; en este ejemplo, la información se toma directamente del mensaje, pero en casos mas complejos esto no es lo mas seguro. Cada sesión comienza con HELO, que da el nombre del sistema que inició la conexión. Luego se especifican quien transmite y quienes reciben. Finalmente se manda los datos en sí. El fin de mensaje se indica con una línea la cual se inicia con un punto (.). Después de que el mensaje es aceptado, se puede mandar otro, o bien finalizar la sesión como se ve en el ejemplo. En Internet y para facilitar su uso, las direcciones numéricas IP se convierten en direcciones alfabéticas con un sistema llamado nombre del dominio (domain name), que consiste de una secuencia de sub-nombres separados por un punto. La denominación de las personas se indica con el formato usuario@dominio, donde el usuario indica el código de identificación o de acceso de la persona en ese computador (login name), y el dominio indica la máquina y su localización. El nombre del usuario no necesariamente es el de una persona, pudiendo ser una lista de despacho o una organización. La descripción completa de la forma de denominación dentro de Internet está en el RFC-819. La denominación completa es lo que se conoce como FQDN (Fully Qualified Domain Name). La cola del dominio puede ser una de las siguientes abreviaciones:

    A cada país se le asigna también unas siglas: au (Australia), ca (Canadá), fr (Francia), uk (Inglaterra), ve (Venezuela). Así, el nombre del dominio asignado a la UCV es: ucv.edu.ve (si bien se discute si edu deba ir) y un usuario de un computador denominado sagi conectado al Internet quedaría completamente identificado por: usuario@sagi.ucv.edu.ve. Las direcciones Internet asignadas por el NIC (Network Information Center) a la Universidad Central de Venezuela son clase B, comenzando con la 150.185.64.1 hasta la 150.185.95.254. Con esta gama se pueden tener 8.128 direcciones locales, esto es 32 sub-redes (desde 64 hasta 95) con 254 hosts en cada sub-red. A la Facultad de Ingeniería le corresponden las direcciones entre 150.185.84.1 y 150.185.85.254. Todos los computadores de Internet pueden denominarse tanto por su dirección IP como por su denominación FQDN siendo esta última más amigable al usuario. Otra posibilidad de indicar una dirección es usando el formato del protocolo UUCP (Unix to Unix Copy Program) que usa el símbolo ! en vez de @; este direccionamiento es más restrictivo pues implica la pertenencia a UUCPnet, pero facilita el enrutamiento. También se puede indicar un enrutamiento alternativo de los mensajes usando el símbolo % cuando se necesita mezclar los formatos Internet estándar y UUCP.

    La tasa de crecimiento de Internet ha sido exponencial y a partir de 1987 el número de redes conectadas se fue duplicando cada año. Se ha vuelto así una red de redes que une millones de computadores en centenares de países alrededor del mundo. Su expansión es tan rápida que su tamaño real y sus recursos solo pueden estimarse. Científicos, estudiantes, funcionarios públicos y hasta senadores y diputados, usan Internet como su medio de comunicación favorito (después del teléfono). Los investigadores intercambian datos científicos, los estudiantes perfeccionan su educación, los funcionarios públicos se comunican con otros que trabajan en proyectos con financiamiento gubernamental. Actualmente Internet está administrada por el IAP (Internet Activity Board) y está principalmente asociada con la NSF (National Science Foundation). Pero ya existe la CIX (Commercial Internet Exchange), que es una asociación de proveedores comerciales de Internet. La conectividad de Internet es actualmente un servicio que puede ser adquirido en el mercado como cualquier otro servicio. El uso de Internet por parte de organizaciones comerciales ha sido exitoso: más del 60% de los sitios registrados son organizaciones comerciales (.COM) y se espera que alegitimación de capitalesancen pronto el 90%. Se predice que, bajo condiciones favorables, Internet tendría más de 100 millones de usuarios para 1998.

    Internet está basada en protocolos abiertos de comunicación que permiten la inter-operación de todas las redes, incluyendo distintas arquitecturas, así como la transmisión en cualquier medio físico. A través de Internet se conectan otras redes académicas como BITNET (Because It's Time NETwork), NSFNET (National Sciences Foundation NETwork), JVNCNET (John Von Neuman Computer NETwork), MILNET (MILitary NETwork), UUCPNET (Unix to Unix Copy Program NETwork) dentro de los Estados Unidos y otras como EUNET a través de Europa, ARISTOTE en Francia, NORDUNET de los países nórdicos, JUNET en Japón, ACSNET en Australia y Nueva Zelandia y muchísimas más.

    El backbone (espina dorsal) de Internet es la red NSFNET, que interconecta 16 centros de supercomputadores en Estados Unidos. El backbone cruzaba el País usando líneas dedicadas a 56 kbit/s. Ahora las líneas operan a velocidad de 1.5 Mbit/s y se están elevando a 45 Mbit/s. Las velocidades de las redes que utilizan Internet empiezan a ser insuficientes para estas aplicaciones y para el tráfico en continuo aumento. Para 1996 se cree que podría haber más de 12 millones de hosts y el esquema de direccionamiento de 32 bits va a ser insuficiente. Por tal razón en los Estados Unidos está surgiendo una nueva red, llamada NREN (National Research and Educational Network), que está prevista para usar velocidades tan altas como 622 Mbit/s hasta 2.5 Gbit/s. Ya se están desarrollando aplicaciones para explotarla, usando tecnologías avanzadas como SONET y ATM. NREN es uno de los 4 componentes del programa HPCC (High Performance Computing and Communications), financiado por el gobierno federal norteamericano y cuya función es impulsar la investigación y el desarrollo de sistemas de computación avanzados, tecnologías de software y algoritmos, investigación básica y nuevos servicios. El presupuesto de HPCC para 1993 fue de 803 millones de dólares, de los cuales 122 millones son para NREN.

    En Venezuela existe una red académica mucho más modesta, con cobertura nacional y acceso a Internet, llamada REACCIUN (Red Académica Cooperativa entre Centros de Investigación y Universidades Nacionales). Esta red fue creada al principio de la década de los '80 con el nombre de SAICYT (Sistema Automatizado de Información Científica y Tecnológica) para atender las necesidades de la comunidad académica y científica venezolana, en cuanto a obtener información actualizada según sus áreas de experticia. Como estaba claro que mucha de dicha información se podía obtener remotamente por medios electrónicos y que la infraestructura de telecomunicaciones nacional no ofrecía servicios apropiados de comunicación de datos, CONICIT tomo la iniciativa de desarrollar su propia red de transmisión de datos, como parte del llamado Proyecto SAICYT. La red fue diseñada en base a los protocolos X.25 de transmisión de datos por paquetes, ya que era la tecnología reinante para ese entonces. En el año 1983 se procedió a la adquisición de los equipos necesarios a la empresa GTE Telenet y a partir de ese momento se comenzó con la instalación del sistema. Para el año 1987 se culminó la instalación de todos los nodos y concentradores de la red a nivel nacional, a la vez que se firmó un convenio con CANTV para la operación de la red. SAICYT se interconectó luego a la red de datos comercial Telenet (también X.25) a través de un enlace internacional analógico a 9.600 bit/s. Mediante este enlace era posible conectarse con otras redes X.25 mundiales. Los servicios de SAICYT se limitaron esencialmente a conexiones con algunas bases de datos en el exterior, principalmente con sistemas de información como Dialog, Compuserve, Delphi y a redes académicas X.25 europeas (Janet, EARN). Los usuarios se conectaban a SAICYT por medio de teléfono con modem. Para el año 1990 la población de usuarios registrados que hacían uso del sistema era de apenas unas 50 personas. Para finales del año 1990 se instaló en CONICIT un servidor SUN con sistema operativo UNIX, con la finalidad de ampliar la gama tan limitada de servicios que para ese entonces se ofrecía. En marzo de 1991 se comenzó a ofrecer el servicio de correo electrónico a nivel nacional. A partir de ese momento y mediante una labor de promoción con universidades y centros de investigación, la población de usuarios comenzó a experimentar un rápido crecimiento, teniendo actualmente más de 7.000 usuarios registrados, pertenecientes a la comunidad académica y científica. Para finales de 1991 se hizo efectiva la conexión a Internet a través de un enlace internacional vía satélite con el JVNC (John Von Neumann Center) en la Universidad de Princeton (en New Jersey, USA). Este enlace operaba hasta hace poco a 19.200 bit/s y recientemente (abril 1995) fue llevado a 128 kbit/s. Actualmente REACCIUN opera en ambiente TCP/IP con routers y servidores de terminales, brindando conectividad a las universidades y centros de investigación a nivel nacional. Algunas de las instituciones están conectadas por líneas dedicadas, como son el CONICIT, IVIC, UCV, USB, ULA, LUZ, UC, UCAB, IESA, IUT y la Biblioteca Nacional. REACCIUN dispone de 3 nodos primarios (en Caracas, Barquisimeto y Puerto La Cruz), y nodos secundarios en Valencia, Mérida, San Antonio del Táchira, Maracaibo y Puerto Ordaz. Cada uno de estos nodos posee 5 módems (excepto Caracas que posee 15 por ahora), para facilitar la conexión a la red, mediante el uso de líneas CANTV conmutadas (por discado), vía módems que permiten velocidades desde 300 hasta 14.400 bit/s. El teléfono master en Caracas es el 5751311. La conexión entre nodos se realiza a través de líneas CANTV dedicadas, a 4 hilos, y con velocidades entre 14.400 y 64.000 bit/s. Próximamente la sede de REACCIUN va a ser mudada al nuevo edifico Domus en la Plaza Venezuela, incrementando el número de líneas de (15 a 30) y las velocidades de acceso. Para la UCV, se ha previsto una velocidad de 384 kbit/s con un canal vía microondas. Para lograr todo esto y mucho más, REACCIUN se ha constituido en sociedad civil sin fines de lucro y adelanta un programa de $2.2 millones con el BID, el cual tiene como objetivo principal la creación de un ambiente de red homogéneo para la comunidad científica y tecnológica venezolana a través de la interconexión de las instituciones universitarias y de investigación. Estos avances plantean nuevos retos a las instituciones nacionales en cuanto al desarrollo de los servicios de valor agregado (bases de datos, directorios de investigadores y proyectos, etc.) a fin de optimizar el uso de las facilidades que ofrece la telemática, las redes e Internet para lograr un avance significativo de la ciencia y la tecnología en Venezuela. A REACCIUN pueden suscribirse todas las instituciones nacionales de ciencia y tecnología, universidades, institutos universitarios, politécnicos, centros de investigación, programas de postgrado e investigadores individuales. Las empresas del sector privado y comercial, así como usuarios independientes, deben cancelar una cuota anual de Bs. 12.000. Mayor información puede obtenerse llamando al 2390577 o 2390877.

    Los usuarios de REACCIUN y de Internet, entre las innumerables opciones, tienen también la posibilidad de conectarse con Atarraya, que es un medio electrónico utilizado por los venezolanos dentro y fuera del País para intercambiar información y opiniones. Atarraya es como un periódico cuyo contenido difiere de un periódico tradicional en que la gran mayoría del material son opiniones en vez de noticias. Un periódico tradicional tiene una jerarquía piramidal con la información fluyendo principalmente desde arriba hacia la masa lectora. Esta información es necesariamente filtrada. En Atarraya la jerarquía es prácticamente plana y la diferencia entre lector y escritor tiende a desaparecer. Los mismos lectores son los que hacen aportes de todo tipo. Generalmente se publican opiniones, pero también noticias (objetivas y subjetivas), discusiones técnicas, solicitud de información profesional y personal, datos de interés a quienes viajan, y mucho más. Como los radioaficionados, también ayuda a conseguir gente, dentro y fuera del ámbito del correo electrónico. Ya Marshall McLuhan, profesor de la Universidad de Toronto (Canadá) en los años 60 pronosticó la creación de la aldea global, donde sus colonos, auxiliados por la tecnología, lograrían vencer las barreras que la geografía impone sobre la interacción social. Atarraya es el primer enclave venezolano en esa nueva frontera. A pesar de que obviamente las personas más atraídas hacia Atarraya son computistas y otros profesionales en áreas técnicas, se hace un esfuerzo en interesar una mayor variedad de lectores. Últimamente los tópicos de discusión ha tendido a ser sobre la situación del País, el impacto de las medidas económicas y temas de actualidad. Entre los grupos e iniciativas engendradas por Atarraya se puede mencionar a FIVAI (Fundación Internacional Venezolana para el Avance de la Investigación), que por ahora ha coordinado la transferencia de libros a universidades venezolanas, pero ambiciona proyectos de mayor envergadura. Mucho más reciente es el Grupo Conexión, compuesto por un grupo de profesionales y científicos, provenientes de universidades, centros de investigación y compañías privadas de computación y telecomunicaciones, los cuales quieren promover y asesorar a instituciones en Venezuela, particularmente al CONICIT, en la importancia crítica de las redes para hacer de Venezuela un país más desarrollado y competitivo.

     


    Apéndice 2  

    Gopher

    La herramienta para Internet

     

     

    Gopher es un sistema de entrega de información distribuida. Desarrollado en la Universidad de Minnesota en 1991, el Gopher presenta menús y submenus de usuarios los cuales se pueden seleccionar para especificar la búsqueda deseada. Cada servidor de Gopher contiene menús para los servidores locales y se unen a otros servidores Gophers; los menús cambian según los recursos disponibles. Hay centenares de servidores Gophers alrededor del mundo. El sistema de todos los servidores gophers se llama Gopherspace Aplicación cliente-servidor [client-server] muy popular que presenta los recursos de Internet como una serie de menús, escudando así al usuario de los detalles mecánicos subyacentes de las direcciones [addresses] del protocolo de Internet o IP [Internet Protocol] y de diferentes métodos de acceso. Los menús de los Gopher contienen documentos que usted puede ver o descargar [download], realizar búsquedas [searches], o elegir selecciones adicionales del menú. Cuando usted selecciona un ítem de uno de estos menús, Gopher hace lo necesario para proporcionarle el recurso que usted seleccionó, ya sea transfiriendo o bajando [downloading] un documento, o saltando al servidor Gopher seleccionado y presentando su menú de nivel superior. Gopher puede desempeñar varias funciones diferentes, incluyendo la de conectarse a la red, registrar la entrada al anfitrión de Internet [Internet host], ejecutar transferencias de archivos del protocolo de transferencia de archivos o ftp [file transfer protocol], realizar búsquedas, y desconectarse de nuevo (de la red); todo ello sin que usted tenga que saber (ni tenga que mecanografiar) la dirección IP correspondiente al recurso de Internet al que desea tener acceso. Muchos clientes de Gopher permiten marcar una ubicación determinada en Gopher con un marcador [bookmark], de manera que usted pueda regresar allí rápida y fácilmente (sin tener que repetir los pasos de nuevo, cada vez que desee regresar a ese lugar). Cuando se realiza una búsqueda [search] utilizando a Gopher, el resultado de la misma se le presenta a usted justamente como otro menú de Gopher: haga su selección, e inicie el proceso. Los clientes Gopher están disponibles para la mayoría de los sistemas operativos más populares, incluyendo a UNIX, Windows, el OS/2 y el sistema Macintosh. La ilustración muestra el Gopher de Netcom, parte del paquete NetCruiser para Windows.

    Utilizando gopher un usuario entrenado puede acceder a información local o bien acceder a servidores de información gopher de todo el mundo. Gopher combina las características de BBS (Bulletin Board Service) y bases de datos, permitiendo establecer una jerarquía de documentos, y permitiendo búsquedas en ellos por palabras o frases clave. Concebido y desarrollado en la Universidad de Minnesota en el agosto de 1991 es de libre distribución para fines no comerciales.

    Gopher soporta directorios, ficheros de texto, item de búsqueda, sesiones telnet y tn3270, multimedia y texto formateado (postcript y otros).

    Algunos ejemplos de la información que gopher puede ofrecer:

    Gopher trabaja en arquitectura Cliente / servidor, existiendo clientes para:

    y servidores para:

    El software para gopher, se puede recuperar de ftp://boombox.micro.umn.edu y en el directorio /pub/gopher. Para aprender más sobre gopher, se puede consultar el directorio /pub/gopher/docs.

     


    Apéndice 3  

    Sistemas operativos

    Como responde la máquina

     

     

    UNIX

    Un sistema de ficheros jerárquico en el que todo se encuentra anclado en la raíz. La mayoría de la literatura sobre el tema dice que el sistema de ficheros UNIX es un grafo acíclico, sin embargo, la realidad es que se trata de un grafo cíclico. El DOS, por ejemplo, es un árbol, con un directorio raíz del que cuelgan subdirectorios que a su vez son raíces de otros subárboles. Un grafo cíclico es como un árbol en el que se pueden enlazar nodos de niveles inferiores con un nivel superior. Es decir, se puede entrar en un subdirectorio y aparecer más cerca de la raíz de lo que se estaba.

    El sistema de ficheros está basado en la idea de volúmenes, que se pueden montar y desmontar para lo que se les asigna un nodo del árbol como punto de anclaje. Un sistema físico puede dividirse en uno o más volúmenes.

    UNIX realiza un riguroso control de acceso a ficheros. Cada uno se encuentra protegido por una secuencia de bits. Sólo se permite el acceso global al root o superusuario. Por tanto, el universo de usuarios de UNIX se encuentra dividido en dos grupos principales, no sólo para el acceso a ficheros sino para todas las actividades: el root, todopoderoso, para el que no hay barreras; y el resto de los usuarios, controlados por el S.O. según las directivas del root.

    Una de las grandes ideas de UNIX es la unificación y compatibilidad de todos los procesos de entrada y salida. Para UNIX, el universo es un sistema de ficheros. De esta forma existe compatibilidad entre ficheros, dispositivos, procesos, pipes y sockets.

    El núcleo de UNIX es relativamente compacto en comparación con otros sistemas de tiempo compartido. Introduce la idea de reducir el tamaño del kernel y ceder ciertas funciones a programas externos al núcleo llamados demonios. Esto ha sido muy desarrollado y en la actualidad, la tendencia es el desarrollo de micro-kernels, sin embargo UNIX, aunque pionero, es anterior a estos desarrollos.

    El sistema presenta comandos de usuario (es decir, a nivel de shell) para iniciar y manipular procesos concurrentes asíncronos. Un usuario puede ejecutar varios procesos, intercambiarlos e interconectarlos a través de pipes o tuberías, simbolizados por el carácter ¦ (ASCII 124). En DOS, también existe la idea del pipe, sin embargo, al no existir concurrencia de procesos, no se trata de una comunicación en "tiempo real", sino de un paso de información a través de ficheros temporales.

    UNIX es un S.O. de red, algo que muchos confunden con un S.O. distribuido, lo que se discutirá en los capítulos de internetworking. Por ello, se ha incluido en su núcleo la arquitectura de protocolos de Internet, TCP/IP.

     

    Unix - Windows NT

    Unix y Windows NT son sorprendentemente similares en diseño y capacidades, pero sus diferencias son significativas. Ambos sistemas operativos brindan a las aplicaciones un espacio virtual protegido de direcciones en el cual correr. Ambos soportan múltiples CPUs y procesos ligeros. Ambos corren en una variedad de plataformas, aunque Unix corre en muchas más. Ambos soportan avanzados sistemas de archivos con nombres largos de archivo. Ambos ofrecen poderosos servicios de compartición de archivos, así como también otros servidores de red.

    Windows NT disfruta de las hegemonía de Microsoft, fundamentalmente del escritorio control central del sistema operativo y de sus Apls. Un desarrollador puede escribir una aplicación Windows NT una vez y luego redirigirla a un CPU diferente solamente con una recompilación. Esto se cumple en Unix sólo con las aplicaciones más simples. NT también permite que los desarrolladores destinen software de 32 bits a Windows 3.1 o a Windows 95. La floreciente base instalada de NT la hace más fácil para encontrar controladores de dispositivo y, cada vez más, el vital y bien escrito software de dominio público que anteriormente le ha dado a los usuarios de Unix una causa por la cual regodearse.

    Unix todavía tiene ventaja en recursos distribuidos, con la capacidad de compartir aplicaciones, archivos, impresoras, módems y procesamientos remotos a través de conexiones de LAN y de WAN. El correo electrónico Unix es el estándar de Internet, TCP/IP es más maduro en Unix. Con todo y eso, el método de compartición de archivos de Windows NT generalmente es más rápido y más eficiente que NFS. También sirve archivos e impresoras para clientes Windows, Windows 95 y Macintosh, sin necesidad de software opcional.

    Actualmente Unix tiene un cerrojo de mercado en las aplicaciones de servidor. Si usted puede obtener acceso a un servidor Unix a través de cualquier conexión de red LAN o WAN, puede disfrutar de todos los servicios. Windows NT que no es inherentemente un sistema multiusuario, todavía carece de capacidad nativa para competir aplicaciones gráficas a través de conexiones de red, una falla que también dificulta la administración remota. Esta es una de las limitaciones mas serias de NT, aunque estamos empezando a ver software de terceros proveedores que ayuda a resolver esto. Necesita una implementación consistente a nivel de sistema operativo.

    A mas bajo nivel, los dos sistemas operativos soportan RPCs ( llamada de procesamiento remoto), y los estándares de compartición de objetos están evolucionando rápidamente para ambos sistemas operativos. No obstante, Windows NT tendrá una ventaja: Microsoft crea los estandares, así que los desarrolladores no se confundirán a la hora de considerar cuál método de compartición de objetos implementar. Sin embargo, mientras Microsoft termine su aplicación de red y sus servicios de objeto, Unix es el mejor servidor de aplicaciones en general.

    En el campo de la compartición de archivos y de impresión, NetWare todavía posee la supremacía, pero Windows NT está subiendo como la espuma. Unix apenas se ve en el radar, y se está desvaneciendo velozmente. Las capacidades de la red nativas de NT cubren todas las bases: PC/ Windows, Macintosh y TCP/IP . Ninguna implementación de Unix puede rivalizar contra la facilidad de instalación y de administración de NT. En honor a la verdad, Unix tiene herramientas más útiles, pero la compartición de archivos y de impresión de Unix todavía está en la edad media si la comparamos con la de NT. NFS es el estándar de Unix para compartir los archivos y recientemente experimento ciertas mejoras, pero incluso con esas mejoras, los usuarios y los administradores encuentran los servicios de archivo de NT más rápidos y menos problemáticos. Y pobre de usted si no tiene un administrador ducho en la instalación de Unix y en la administración de pesadillas inherentes a este sistema operativo cuando se trata de compartir impresoras. Las PCs Windows requieren software especial para trabajar con clientes NFS, y solo algunas implementaciones Windows NFS ofrecen los beneficios de las funciones de red de Windows / Windows NT. Obviamente Windows NT es mejor opción para compartir impresoras y archivos.

    Unix, es buena opción para servidores de bases de datos, pero NT ha ganado buena reptación, pos sus fáciles implementaciones, administración y operación a pruebas de balas. Unix todavía tiene ventaja en la cantidad de aplicaciones disponibles en base de datos, terreno que está perdiendo rápidamente con respecto a NT. En el especifico caso de Solaris para Sparc, todo gran fabricante de bases de dato ofrece un servidor orientado a SPARc.

    Estos fabricantes están portando rápidamente hacia NT. Las ventajas de los rendimientos de Unix de alto nivel ya no existen. Los sistemas NT equipados con CPUs Alfa o Mips, o hasta con múltiples Pentiums, superan fácilmente los sistemas Sparc, del mismo rango de precios. NT encuentra y soporta controladores Raid de disco, fuentes de poder redundantes y unidades intercambiables en caliente. NT necesita mayor tiempo para probarse a si mismo en este rol, pero tiene el poder y el respaldo de los fabricantes necesarios para usurpar el liderazgo a Unix en el área de servicios de base de datos.

    Si usted está poniendo servicios en la Internet, Unix sigue siendo el mejor camino. Se encontrará recibiendo gratuitamente el mismo software por el que debería pagar por el mismo si usara NT. Puede implementar muros de seguridad (firewalls) , servidores representantes(proxy) , mejoras de seguridad, y otras necesidades usando software tomados de varios sitios de Internet . El sistemas de archivo multiradicado de N T hace que adaptar servicios para cambiar configuraciones de almacenamiento sea innecesariamente un reto. En cuanto a costos, usted puede ofrecer servicios de Internet impresionantemente completos con Linux o de FreeBSD, sistemas operativos que puede comprar por menos de 50$.

    Sin embargo, NT está ganando terreno rápidamente , y las utilidades y servicios gratuitos que los usuarios Unix abrirán camino hacia NT. Microsoft ha anunciado públicamente a Netscape tanto en los mercados de servidor como de visualizador. Microsoft ya está abriendo camino para su Internet information server con Windows NT server , uniendo su programa visualizador Internet Explorer gratuito . A pesar de los gritos de que es injusto, Microsoft se posiciona para dominar la Web.

     

    WINDOWS NT

    El Windows NT[33] de Microsoft es quizás la herramienta más versátil hoy en día, para el uso de las computadoras. Windows NT es una de las herramientas más poderosas, disponible para aplicaciones cliente-servidor, tanto en computadoras personales como en servidores Windows NT está diseñado para soportar nuevas aplicaciones criticas para negocios.

    Windows NT no reemplaza al MS-DOS, al Windows 3.1, Windows 95, Windows 98 o al Windows para grupos de trabajo. Windows NT complementa y extiende la familia Windows brindando una sólida plataforma para requerimientos de aplicaciones más sofisticadas.

    Windows NT puede ser una excelente solución para aquellos usuarios que desean una total integración de sus aplicaciones, -como la administración de inventarios- con herramientas propias de productividad.

    Windows NT ejecuta aplicaciones críticas para negocios como lo son la ingeniería de diseño, contabilidad, ordenación de datos y administración de inventarios, ligándolas con información almacenada en Mainframes, Mini computadoras y Redes.

    Los usuarios pueden acceder los recursos de la empresa utilizando la familia interfase de Windows. Es también una excelente solución para usuarios de computadoras personales que requieren aplicaciones sofisticadas, como lo son los desarrolladores de software y otros usuarios poderosos.

    Windows NT refuerza al poder total de las plataformas sólidas basadas en arquitecturas de uní procesador o multiprocesador, incluyendo los procesadores de Intel 80486 y Pentium, procesadores RISC de DEC y MIPS y más de 20 sistemas de multiprocesadores. Los desarrolladores de software y los usuarios poderosos se verán beneficiados con el avanzado sistema de administración y características veraces que brinda Windows NT.

    Estas características le brindan al usuario mejor control sobre el hardware y software, así como mejor protección en contra de la corrupción o pérdida de información. Windows 2000 es la última versión de Windows NT.

    Windows NT puede ser utilizado para integrar recursos de red que compartan una variedad de plataformas dentro de una organización, incluyendo Windows 3.1, Windows para grupos de trabajo 3.1, MS-DOS, Macintosh, UNIX, OS/2 y todas las redes más conocidas, incluyendo Novell NetWare, Microsoft LAN Manager, IBM LAN Server, DEC Pathworks y Banyan VINES.

    Para satisfacer las necesidades de las empresas, Microsoft ofrece varias aplicaciones cliente-servidor diseñadas para la plataforma Windows NT. Ofrece soluciones basadas en los estándares, las cuales son modulares y escalables. Estas aplicaciones incluyen:

    Servidor SQL de Microsoft para Windows NT

    El servidor SQL de Microsoft para Windows NT es un poderoso sistema manejador de bases de datos relacionales de alto rendimiento para sistemas cliente-servidor distribuidos. Está diseñado para satisfacer las necesidades de organizaciones que se encuentran en el proceso de disminuir o rediseñar soluciones criticas para negocios.

    El servidor SQL para Windows NT es muy poderoso, fácil de controlar y abierto a más aplicaciones y fuentes de datos que otros sistemas. Soporta procesos de transacción en línea utilizando avanzada ingeniería cliente-servidor.

    Servidor SNA de Microsoft para Windows NT

    El servidor SNA de Microsoft para Windows NT es un sólido puente de información que brinda acceso a Mainframes de IBM y a Mini computadoras con plataforma Windows NT. Su arquitectura cliente-servidor brinda características de llave incluyendo un alto nivel de seguridad, integración con la información de sistemas existentes, capacidades para maximizar el desempeño y minimizar los tiempos de respuesta, y una amplia disponibilidad de emuladores que permitirán a las corporaciones enviar soluciones críticas por medio de redes corporativas. El servidor SNA brinda un número de beneficios para administradores MIS incluyendo fácil acceso a la información, aumento en la productividad y ahorro en los costos.

    Administración centralizada

    Microsoft está trabajando sobre un grupo de herramientas integrales y automatizadas de administración centralizada, las cuales amplían las capacidades encontradas en Windows NT.

    Puentes de Información (gateways)

    Para brindar las mejores soluciones posibles para plataformas múltiples, Microsoft ofrece sus propios sistemas, incluyendo el servidor SQL y el servidor SNA, y se mantiene en contacto con desarrolladores ajenos a ellos para crear soluciones adicionales.

    Un número de compañía, incluyendo socios de Microsoft como Micro DecisionWare y Rochester Software, están trabajando al lado de Microsoft para apresurar el envío de servicios avanzados de conectividad de datos.

    Byte (a Sunsoft): ¿Por qué cree usted que Solaris Unix es mejor que Windows NT?

    Mackay: Escalabilidad, confiabilidad y rendimiento. Solaris ha demostrado una escalabilidad lineal de hasta 64 procesadores en un sistema, tiene bases de datos mayores de hasta 5 terabytes, y permite que se conecte cientos de usuarios. NT ni siquiera se acerca a esto. Los sistemas Solaris permanecen en línea por meses, manejando transacción tras transacción. Esto define a la computación empresarial de misión crítica y a la de Internet. Y este es el motivo por el de las grandes bases de datos relacionales corren en Solaris, no en NT. En una reciente prueba de referencia de rendimiento para bases de datos (TPC-C) en un servidor Compaq Proliant 4500, Solaris con Oracle7 superó a NT con SQL server por un 30%. Le tomará mucho a NT superar resultados objetos como este.

    Nash: En las pruebas TPC-C, la diferencia es sólo casi 5%. En modos de operación normales, con tiempos de transacción aceptables, sistemas Unix y NT iguales ofrecen un rendimiento casi igual. Microsoft SQL tiene una limitación de 4 TB, pero una base de datos de 4TB puede darte un tiempo de respuesta lento en cualquier sistema. NT ha estructurado un manejo de excepciones para capturar condiciones de error y responderlas uniformemente. El sistema de archivos está diseñado para recuperarse de todos los tipos de errores de disco (y está) protegido por una arquitectura de seguridad C2 certificada por el gobierno de EEUU. Cuando el rendimiento, la escalabilidad y la confiabilidad son comparables, las cosas importantes son el servicio, el soporte y el costo de administración y de mantenimiento. NT provee enormes ahorros de costo en éstas áreas.

    Byte (a Microsoft) ¿Por qué cree que NT es mejor que Unix?

    Nash: NT es el único verdadero sistema operativo multipropósito. Combina el rendimiento de los servidores de archivos de impresión y el poder de servidores de aplicaciones Unix con la facilidad de uso de Windows. NT puede interactuar con otros sistemas como Netware, se integra con sistemas preexistentes a la vez que ofrece una migración sencilla. Y NT soporta hasta 32 procesadores.

    Mackay: Esta discusión no es sobre NT versus diversas versiones de Unix, sino sobre Solaris y NT. Si la red es la computadora, entonces estamos hablando sobre lo que entrará en este nuevo paradigma: computación en la Internet. La historia de Microsoft es coherente mientras sea monolítica: Windows domina el escritorio. NT es el servidor de aplicaciones y todo eso se une con OLE. NT no tiene la confiabilidad y escalabilidad requeridas para correr aplicaciones comerciales cruciales en servidores conectados que podrían tener cientos de usuarios exigiéndolos diariamente, que es donde estamos con las aplicaciones basadas en Internet.

    Según estadísticas, estás son las proyecciones del mercado para 1999, en donde se ve un claro dominio del mercado por parte de Microsoft, pienso que son cifras muy optimistas para la gente de Microsoft, en mi opinión, considero que más bien el mercado será mas tecnificado. Si considero el dominio de Windows como sistema operativo en escritorio, sin importar prácticamente la decisión del gobierno de EEUU, con respecto a Microsoft y como influya en el lanzamiento de su nuevo sistema (Windows 98)[34].

    Ilustración 18. Fuente Dataquest

     


    Anexos  

    información técnica

     

     

    En esta sección se exponen algunos información adicional de tipo técnico para reforzar conceptos que no fueron discutidos en el marco teórico ya que no se corresponden con el alcance del trabajo en función de sus objetivos, pero que sin embargo queremos anexar como fuente complementaria de conocimientos que ayuden a entender al lector no experimentado en este campo y que además le haga fácil el trabajo de investigación al no tener que acudir a otros medios de información. Es por ello que hicimos una selección de los temas de mayor impacto y los exponemos en forma breve en estos apéndices.

     


    Anexo 1  

    Buscadores

     

     

    Descripción Dirección en la Web
    Mejores buscadores extranjeros www.yahoo.com
    http://www.altavista.digital.com
    www.webcrawler.com
    Buscadores populares www.lycos.com
    www.es.lycos.com
    www.hotbot.com
    www.excite.com
    http://www.infoseek.com
    www.yweb.com/home-es.html
    Alta vista a nivel español en castellano www.altavista.magallanes.net
    Buscadores latinos www.yupi.com
    www.fantastico.com
    www.mundolatino.com
    www.ciudadfutura.com
    http://encuentrelo.com
    Buscadores españoles http://biwe.cesat.es
    http://trovator.combios.es
    www.sol.es
    www.vindio.com
    www.globalcom.es/indice
    www.ole.es
    www.ozu.com
    www.elegitimación de capitalesano.es
    www.ozu.es
    Buscadores nacionales www.auyantepui.com
    www.paraguana.com
    Navegador hispano de Intercom
    www.intercom.es/navegador
    www.chevere.com
    www.trompo.com
    Recursos Internet clasificados www.rediris.es/recursos
    Buscador de noticias (periódicos, revistas, boletines y agencias de prensa) http://inspector.telepolis.com
    www.elibrary.com
    http://nln.com
    www.infomarket.ibm.com
    www.eud.com
    www.el-nacional.com
    Buscador de contexto www.opentext.com
    http://ndex.opentext.net
    Base de datos de paginas Web http://aleph.ac.upc.es/aliweb
    Guía de buscadores www.prisa.es/busquedas.htm
    Buscador de personas en Internet. Es prácticamente un directorio de usuarios para Internet. www.linkstar.com
    www.whowhere.com
    www.four11.com
    Clasificación geográfica http://donde.uji.es
    Otros buscadores www.pointcom.com
    http://a2z.lycos.com
    www.dejanews.com
    http://pathfinder.com
    www.mckinley.com
    www.directory.net
    www.100hot.com

     


    Anexo 2  

    Metabuscadores

     

     

    Descripción Dirección en la www
    Mejores metabuscadores www.metacrawler.com
    www.search.com
    http://nln.com
    Consulta Archive(servidores FTP) y DejaNews www.cs.colostate.edu/~dreiling/smartform.html
    Selecciona entre 10 y 12 buscadores www.stpt.com

     


    Anexo 3  

    Medición de creación del valor a través de la gerencia del conocimiento

    Jesús Sánchez Martorelli, PDVSA junio 1999

     

     

    En este documento quiero plasmar algunas reflexiones sobre los elementos a considerar en cuanto a la Medición de la Creación de Valor a través de la Gerencia del Conocimiento, como resultado de las reflexiones realizadas en la Jornada de Alineación Estratégica de los Centros de Conocimiento de Petróleos de Venezuela efectuada en el CIED el 2 y 3 de junio de 1999.

    Algunas premisas

    Comenzaré por establecer algunas premisas básicas que sustentarán el esquema propuesto para la medición de la creación de valor, en general definidas dentro del, esquema de trabajo y mesas de trabajo de las referidas jornadas:

    1. El sistema de medición estará relacionado a la metodología del Sistema Balanceado de Indicadores (SBI) de cada negocio, y en particular, los indicadores seleccionados se relacionarán con los objetivos afectados por la Gerencia del Conocimiento en dichos negocios
    2. Los objetivos que se establecen en cada negocio serán esencialmente similares, y los indicadores particulares dependerán del estado de avance de la implantación de la gerencia del conocimiento en cada uno. Para ello partiremos de tres estadios fundamentales de evolución en la implantación, como estaban planteado en los formatos de la Jornada:
    3. Habrá una homologación de definiciones de objetivos estratégicos y de indicadores a través de todos los negocios, como parte de la creación del lenguaje común
    Comenzaré, a continuación, a exponer las ideas específicas que se derivan de estas premisas básicas

    El Sistema Balanceado de Indicadores, la Gerencia del Conocimiento y la Creación de Valor:

    La Gerencia del Conocimiento (GC), por definición, está incorporada dentro de la perspectiva de dinámica organizacional del SBI, puesto que los componentes esenciales de dicha perspectiva (gente, tecnología e información), son a su vez objetivos fundamentales de la GC. De hecho, la “ecuación” genérica de la perspectiva de dinámica organizacional así lo indica:

    En este sentido, si hacemos una representación genérica del impacto que se crea por la gerencia del conocimiento dentro del SBI, esta podría reflejarse así:

    Como se indica, la implantación de la GC apalanca las dos estrategias fundamentales de los negocios: crecimiento sostenido de ingresos y mejora de la eficiencia y la productividad (reducción de costos y optimización del uso de activos).

    Lo anterior nos indica que en cada negocio en donde se esté implantando la gerencia del conocimiento, debe haber objetivos explícitos en la perspectiva de dinámica organizacional que reflejen el sentido de dirección de dicha implantación, y sobre esos objetivos es que se establecerán los indicadores correspondientes.

    Mención especial requiere aquellas organizaciones o empresas cuyo “negocio”, o parte importante de él, sea el conocimiento. En estos casos, los procesos que se relacionen con esa parte del negocio, también deben llevar los objetivos estratégicos y los indicadores adecuados a los mismos. Un ejemplo de este tipo de organización sería el Intevep.

    Para propósitos ilustrativos, a continuación indicamos los objetivos estratégicos del SBI de la División de Exploración y Producción que están relacionados con la gerencia del conocimiento:

    Las fases de implantación de la Gerencia del Conocimiento y la medición la Creación de Valor:

    Una vez que identificamos dentro del SBI los objetivos relacionados con GC, podemos establecer los indicadores que les corresponden. Ahora bien, mencionamos que dichos indicadores estarán también relacionados con el “estadio” de evolución de la implantación de la GC, la cual definirá la naturaleza de los indicadores a medir. Al respecto cabe considerar tres elementos básicos para esta matriz de medición:

    1. Las fases de implantación de la GC, definidas en la Jornada como:
    2. El proceso natural de un esquema de medición para un proceso:
    3. En nuestro caso, y dado que mostraremos indicadores del tipo Guía de Procesos y de Resultados en el SBI, solo se considerarán algunos indicadores de proceso, los indicadores de salida y los indicadores de beneficio de largo plazo. Los indicadores de largo plazo estarán relacionados directamente con los beneficios financieros (valor agregado, ingresos adicionales, ahorros, reducción de costos, optimización de la base de activos) derivados de la implantación de la GC (por su naturaleza, serán todos indicadores de resultados)

      Entre los indicadores de salida estarán, por ejemplo, los de Nivel de Dominio de Competencias, Base Actitudinal para el Cambio (indicador aplicado en Exploración), Satisfacción de empleados, entre otros.

      En cuanto a procesos, estarán indicadores guía como retención de personal en competencias clave, progreso en la implantación de GC, nivel de uso de sistemas de información clave, uso y acceso a foros de intercambio, entre otros.

      Relacionando este esquema de proceso / salida / beneficios con las fases de implantación descritas en el punto anterior, se deduce que en la fase 3 dominarán los indicadores de salida y de beneficios, mientras que en las fases 1 y 2 dominarán los indicadores de proceso y salida.

    4. El tercer elemento se refiere a que cada indicador está relacionado con unos objetivos estratégicos, por definición, dentro del SBI.

    Mapa de Indicadores de Creación de Valor propuesto para Gerencia del Conocimiento:

    Según lo anterior, podemos establecer el siguiente mapa de indicadores:

    Objetivos Fase 1 Fase 2 Fase 3
    Competencias Progreso en Implantación de Modelo de Desarrollo / Retención de Competencias

    Rotación de Personal

    Nivel de Dominio (Brecha) de competencias Nivel de Dominio (Brecha) de Competencias

    Beneficio / costo de mantenimiento de competencias

    Ambiente de Aprendizaje Progreso en Implantación de Redes de Conocimiento Redes de Conocimiento Operativas

    Propuestas de Valor y VPN de las mismas

    Valor agregado por Mejores Prácticas
    Sistemas de Información Progreso en Implantación de Foros e intranet Nivel de Uso de Sistemas Clave Nivel de Uso de Sistemas Clave
    Tecnología Progreso en Implantación de Sistema de Inteligencia Tecnológica VPN de cartera de nuevos proyectos de tecnología Valor agregado por tecnologías (mayores ingresos, menores costos)
    Valor Agregado Valor Agregado por GC

    Valor del Capital Intelectual

    Beneficio / costo de GC

     


    Anexo 4  

    "Web: a new way to deliver technical information"

    Bob Alden, The Institute, IEEE Spectrum, September 1994.

     

     

    The IEEE (Institute of Electrical and Electronics Engineers) spends so much effort producing technical articles that so few of our members read. Technical articles are traditionally published in Transactions. In the past, societies sent Transactions to every member. When societies made these Transactions optional and gave members their choice, the overwhelming majority said "thanks but no" to receiving them. Is there a way to format these articles so that more members want to read them? Let's look at what we do now, then how the Information Highway can lead us to a new way of doing our business of producing tech nical articles.

    CURRENT FORMAT. Currently each volume of any IEEE Transactions contains more articles than any one person is interested in reading. Each article is supposed to stand alone. Each generally contains an introduction, back ground, theory, results, discussion, conclusions, references etc. There tends to be a six pack syndrome. We regard anything less than six pages as not being substantive. Some of our papers are hard to read. This is due in part to the length and need to be complete, and the fact that engineers tend to write using the third person and passive tense. Many Theory sections repeat, inconsistently, what someone else already wrote. Wow, do we work hard to fill those six pages! Think about those long, detailed, comprehensive engineering reports we write or read. However, for the boss, there is an executive summary. Why ? Because the boss is too busy to read all that stuff-and needs only the key information. What does this tell us? Perhaps that we need to make our written material user-friendly-just like the newer software packages that have become popular. We all have time constraints. We need technical material presented the way users need it. We need the key information up front, and access to supponing material, as we need it, when we need it.

    FUTURE FORMAT. Using hypenext (and hypermedia to include graphics and even sound), we can produce articles that are available on a compact disk or over the network using a web server. We can read anicles on a CD using a personal computer with a CD-ROM. For the network delivery we need a full Internet access connection and client software like Mosaic on our computer. There are advantages to each of these delivery choices. The CD offers a simple way for the IEEE to sell the product (i.e., recover the cost of production through membership-related charges or sell at a higher price to nonmembers), but restricts the amount of material connected through the hypertext links. This method of delivery does not limit distribution to those with a full Internet access connection. Network delivery requires some kind of password-controlled access to limit use to those who have paid for the service. But it has the advantage of a much higher limit to the material linked. What might a technical article look like if written in hypertext? First of all, there is never one article but a set of articles that are dynam ically linked and updated. Each article is about a page in length. We first scan (read quickly) the entire article to see what is there and whether we are interested. If we are hooked, we go back to the beginning and read carefully to understand the details.

    The introduction is short and states what is to be done, why, and generally how. It also contains a review of the necessary background that is short because key words are high lighted. Each highlighted word is a link to another article. There is no list of references at the end of the article because any reference is immediately available. Clicking on a high lighted word brings that article to our screen to read. We can read that background article if we wish, and go further back if necessary. Returning to our original article, we continue to read.

    The theory section may be next. In cases where the article uses previously developed theory a few short sentences put that theory into perspective, and clicking on the appropriate highlighted word takes us to the original theory development. There will be a reference to nomenclature. Again, clicking on the highlighted word provides the nomenclature list. This is consistent for this set of articles. Perhaps such an article is only written by a task force of the relevant technical committee.

    The results section is succinct and explains the significance. Clicking on certain icons provides a graphics window with the relevant drawing (or appropriate media display). The discussion contains highlighted words. We can click and bring up relevant results from other articles. The conclusion completes the article. Additional items such as acknowledgements bibliography, appendices, author biographies, etc. can be viewed by clicking on highlighted words.

    THE WEB. What is the result of this electronic construction? It is a resource that is set up to help us find the information we need. Higher-level surveys of the literature organize material by subject area. This leads the reader into specific technical specialties. The cross linking of web structures (as the name implies) enables many entries to the same specific area from different starting points. Once into the set of anicles, we can read quickly and absorb trends and/or specific results if we are aware of the background and current practice. Alternatively if we are relatively new to the field, we can easily access the necessary background and read similar papers without duplication of "boilerplate" and differing conventions.

    Producing this kind of new format for technical articles will not be easy. Is it worth the effort? Are there better ways to use these developing technologies for our own benefit? How can we improve our organization and distribution of technical material? Your input is needed. If IEEE is to serve your needs in this area, we need to know what you want and how you want it. The editor of THE INSTITUTE is always looking for responses to this and other columns.

     


    Anexo 5  

    "The Internet multicast from ITS: How it was done and implications for the future"

    Luis F. M. de Moraes and Stephen B. Weinstein, IEEE Communications Magazine, January 1995.

     

     

    Many sessions at the International Telecommunications Symposium (ITS) in Rio de Janeiro, Brazil, in August 1994, were multicast through the Internet as live audio and pictures to viewers in the U.S. and elsewhere. The Multicast Backbone (MBONE) frequently carries meetings of the Internet community and special events such as space shuttle launchings. It is beginning to be used for workshops and other professional gatherings. Making one of its major conferences available through MBONE was a first for the IEEE Communications Society and a cooperative effort by many people that relied on the generous loan of equipment and staff members by a number of companies. A special satellite data connection extended MBONE from the United States to Brazil. We report here on how it was done and what it means for the Communications Society.

    MBONE, a virtual network layered on portions of the existing physical Internet is composed of islands (such as multicast LANs like Ethernet), joined by virtual point-to-point links called "tunnels". The tunnel endpoints are typically workstation-class machines with operating system support for IP multicast and running the "mrouted" multicast routing daemon (always-running background process). IP multicast packets are encapsulated for transmission through tunnels, so that they look like normal unicast packets to intervening routers and subnets. IP multicast addressing is an Internet standard (RFC 1112) developed by Steve Deering of Xerox PARC and now supported by numerous workstation vendors. The real-time protocol (RTP) used for transmission of audio, video, and whiteboard media is due largely to Steve Casner, chair of the Internet Working Group in this area. A participating workstation should have audiocoding hardware plus software for compression to 32-kbit/s ADPCM, 13-kbit/s GSM, or 4.8 kbit/s LPC. The software for packet audio (vat) and video (nv), and the user interface software, is available by anonymous ftp from ftp://parc.ftp.xerox.com pub/net-research/.

    No special hardware is required to receive the slow frame-rate video prevalent on MBONE since decoding and display is done in software. The data rate is typically 25-150 kbit/s. Originating video requires a camera and a frame grabber card. A whiteboard function (wb), supporting display of Postscript documents as well as ASCII text, is also available. Many of the audio and video transmissions over MBONE are advertised in sd, the session directory tool (accessed through the user interface). Session creators register the session with sd which assigns an address. This address and the session information appear on the screens of workstations running sd. The audio and video programs can be invoked with the right paramters by clicking a button in sd.

    Why Do It? This multicast, designed by us and our colleagues at the Federal University of Rio and NEC's Princeton C&C Laboratory, had several motivations. One was to further the globalization of the IEEE Communications Society by illustrating how a national society such as the Brazilian Telecommunications Society and the Communications Society can jointly sponsor a conference that has a truly international accessibility. In the future, it could become common for a IEEE Communications Society member to purchase a remote registration for a distant conference or workshop, listen to and view sessions of his or her choice, and ask questions while being seen and heard by people at the meeting location and those attending remotely. This will be an enhancement of services offered by the IEEE Communications Society that many of us believe will increase the value of membership and the impact of our activities. It will give us additional freedom in locating conferences and could provide more stability in conference finances. Although this initial experiment was free, and the quality of the service may not be good enough to charge for in the immediate future, the Society expects that in a few years it will begin collecting registration fees for remote electronic participation. This is itself part of a larger, still developing plan to convert as many as possible of the Society's activities from paper-based to computer and communications-based.

    A secondary motivation was to experiment with a particular service system, the Internet MBONE network, that represents a different world view from the telephone industry that many of us come from. The Internet pioneered the concept of a best-effort service offering little if any quality of service guarantee, but provided cheaply and ubiquitously. Although intended for store and forward data traffic, not media streams, this service concept may also have some relevance for real-time traffic. We complain about the two-frames-per-second video and the sometimes clipped and broken audio, but there is a learning value in deploying and experimenting with a best effort real-time service. With the experience gained in Rio the IEEE Communications Society can begin to define a member service of acceptable quality, that may still be relatively inexpensive and open to experimentation and innovation. It may be decades before it is possible to offer all-day "toll quality" remote conference participation at an acceptable price, but in two or three years MBONE may evolve into a service offering acceptable quality at an affordable price.

    The time difference between originating and viewing locations will always be an obstacle and it remains to be seen how much the sociology of meetings will change to partially accomodate it. Almost all of the viewers of the ITS 94 multicast were in the United States, within avery few time zones from Rio de Janeiro. Can conference formats be redefined to reduce the impact of the time difference? Perhaps question periods will not follow immediately on live presentations bu tbe delayed by half a day so that members of the audience in other parts of the world will have had a chance to view delayed multicasts and submit questions. There are other technical and behavioral questions that also require "just trying it", such as the importance of better quality visual aids, which could be realized by use of Postscript files on the MBONE whiteboard. It was so hard getting the basic audio/video elements in place that the Rio experiment did not have a chance to get into these questions. But the experiment stimulated thinking about the real human problems of globalization through electronic processes.

    After getting the right software and media hardware components, our main concern was the data connection from the conference site at the Rio Palace Hotel to an MBONE router in the Internet backbone. The existing 64-kbit/s Internet connection from Brazil to the Internet backbone in the U.S. was inadequate for this experiment. So the IEEE Communications Society and the Brazilian Telecommunications Society, co-sponsors of ITS 94, solicited the participation of a number of companies and institutions in setting up a special satellite data connection. We gratefully acknowledge the contributions of equipment and facilities made by Anadigicom Corporation, COMSAT World Systems, Embratel, the Federal University of Rio de Janeiro, INTELSAT, Metropolitan Fiber Systems, NEC USA Inc., Sun Microsystems, and SURAnet. The USC/Information Sciences Institute and Rede Rio/FAPERJ contributed additional expertise and support. Workstations functioned as Internet hosts and as media processers (using the software described earlier) at the two ends, which were a conference room in the Rio Palace hotel and the facilities of SURANet, an Internet access provider in College Park, Maryland. Professional audio/visual assistance was arranged in Rio, including a camera operator, which helped obtain the best audio/visual quality possible in the MBONE context. The workstation in College Park also served as an MBONE multicast router. A microwave link carried the digital compressed audio/video signals from the workstation at the Rio Palace Hotel to an antenna at the top of Corcovado, where the famous statue of Christ is located, and from there by terrestrial cable to Embratel's Tangua C-band earth station. The signal, bursting to several hundred kbit/s, was imbedded in an E1 (2.048 Mbit/s) transmission frame (a European CEPT standard) and sent via an Intelsat digital satellite service to the U.S. It was received by a 4.5-meter antenna at COMSAT's headquarters in Bethesda, MD. Then came the difficult part, conversion of the E1 frame to a T1 (1.544 Mbit/s) frame used in transmission systems in the U.S. Despite a decades-long coexistence of these two standards, the configuration of the conversion equipment can be confusing, especially if the traffic does not conform to standard 64 kbit/s telephone channels. Not all 64 kbit/s tributaries in an E1 frame can be accomodated in a T1 frame, and there are different assignments of tributary channels to time slots. Several days were consumed in determining that misconfiguration of this conversion equipment was the source of data transmission problems and in making the fix. It was necessary to have fully compatible data test sets at the two ends of the circuit, a requirement we were lucky to be able to meet. Finally, nearing the end of the first regular day of the conference, the T1 signal sent by fiber network from the U.S. earth station was received error-free at the Internet access point. We were on the MBONE network and were very happy to see, in the next couple of days that about 60 listeners signed on to our conference. Comments received back were helpful in improving camera work, mainly by minimizing any change or motion. As in most media productions, careful attention to production details is critical to the success of MBONE multicasts.

     


    Anexo 6  

    "A fast and secure track to hypertext"

    Johna Till Johnson, Data Communications, January 1995.

     

     

    Just try to download a hypertext document from the World Wide Web over a dial-up line, and Internet surfing becomes more like floating on a life raft in the Sargasso Sea. The images, graphics, and audio and video clips embedded in Web documents can send byte counts soaring well into the six figures, putting even speedy modems in the doldrums. But Netscape Communications Corp. has come up with a way to reduce the Web transaction lag by building a better browser, the desktop program that helps users find and view hypertext documents stored on Web servers. Netscape Network Navigator comes with a quartet of techniques aimed at reducing the wait for Web document retrievals over dial-up lines. Netscape's product also is the first of its kind to incorporate both user authentication and encryption, two critical features for security-conscious corporate users. The four features providing quicker access to Web documents include a facility that essentially depicts images initially at low resolution, gradually building to higher resolution. A second feature, called simulated multithreading, enables the Netscape Web browser to process the different components in a hypertext document simultaneously. Netscape's other two time savers are statistical bandwidth sharing, which boosts bandwidth utilization during a Web session, and integrated caching, which enables users to store some hypertext components locally. Netscape Network Navigator's security features are based on bulk encryption and authentication technology from RSA Data Security Inc. and a homegrown protocol, called Secure Sockets Layer. To further appeal to corporate networkers, the Netscape product runs on more platforms than any other Web browser. The platform support list includes PCs running Windows 3.1 or Windows NT Macintosh computers, and Unix workstations. Another corporate carrot is low cost: Netscape has slapped a $99 price tag on its Web software.

    CREATIVE IMAGERY. One of the biggest problems with viewing hypertext documents on Web servers is the amount of time it takes to download image files. Users can wait anywhere from several seconds to several minutes before a complete high-resolution image is downloaded for display. Netscape takes some of the sting out of this delay by building up images on screen as they are transmitted, rather than waiting for the entire file to be sent This "successive approximation" approach gives users an immediate look at a rough image that is then gradually filled in. The mechanism used by the Netscape Web browser for this successive approximation depends on the file format in which the image is stored. For instance, an image stored on a Web server as a GIF file may be stored in interlaced form. This means the lines comprising the image are not stored sequentially (line 1, line 2, line 3, etc.), but in some other order (for instance, line 1, line 8, line 16, line 24, etc.). Netscape is the only Web browser that displays interlaced GIF images as they are transmitted. This gives users a rough idea of what the full image will look like. As more lines are sent, the image fills in. Other Web browsers display images only in their entirety. Netscape also takes advantage of a formatting characteristic of JPEG (Joint Photographic Experts Group), a standard for photographic image compression. While JPEG images aren't stored in interleaved format, JPEG files can be stored in two varieties: low resolution and high resolution. When the Netscape browser finds a JPEG file stored in both formats, it first downloads and displays the low-resolution version. Then it retrieves the high-resolution file, overwriting the low-res image when the download is complete.

    Like its image handling feature, Netscape Network Navigator's simulated multithreading is aimed at giving users quicker initial access to components in a hypertext document. Simulated multithreading is a limited form of multitasking, in that each subroutine within the software operates for a specific amount of time before allowing another feature to execute. This enables the Netscape browser to display multiple documents in different windows. It also lets user scroll through one document while another is downloading (a feature that's unique to Netscape Network Navigator). Simulated multithreading works regardless of whether or not the user's operating system is multitasking. This means, for instance, that Macintosh users can take the same advantage of simulated multithreading as Windows NT users. Netscape's use of simulated multithreading enables the vendor to make more efficient use of bandwidth. With Web document downloads, incoming files arrive as strings of TCP packets, with a variable amount of network-induced delay between packets. If the packets all arrive from the same source, the bandwidth between packets is unused. With simulated multithreading, each window may have an active download, with packets coming from different Web servers. If a packet isn't coming in immediately from one source, a packet from another source can take its place. This creates a type of statistical multiplexing at the TCP packet level, resulting in more efficient use of bandwidth. Integrated caching, the fourth technique used by Netscape to improve the efficiency of its Web browser over lowspeed links, lets users configure their hard drives or RAM to store frequently downloaded Web documents or parts of documents locally. On subsequent requests for such documents, the Netscape browser first checks local storage for the needed files. If it finds those files locally, it dispenses with the download from the remote server. One trick to integrated caching is making sure the locally stored information is not out of date. The Netscape browser has two ways to check data status. First, Web servers often append a tag equivalent to a data expiration date to stored files. In such cases, Netscape Network Navigator stores those tags with cached files and checks them whenever the files are accessed. If a file's expiration date has passed, the browser then retrieves a new version from the server. In cases where expiration tags aren't available, the Netscape browser queries the Web server to see if the file in question has been updated since it was downloaded. If the document has been changed, the browser downloads the new version.

    SECURITY BLANKETS. Netscape Network Navigator's core security mechanism is based on RSA encryption and user authentication. The package also features a proprietary protocol that Netscape calls Secure Sockets Layer (SSL), which runs on top of TCP/IP to provide security at the application layer. SSL must be running on the document server as well as on Netscape's client to provide secure communications (Netscape offers a secure server, although most Web servers on the Internet aren't secure). When both client and server are running SSL, the protocol sets up an authenticated session between the client and server using a dual-key mechanism. A session ID, which is randomly generated by the client from system configuration parameters, is used as a key to enable symmetric encryption of all traffic on the session. Symmetric encryption is used rather than dual-key encryption for bulk data transfer because it's much faster; dual-key encryption is used for authentication because it's more secure.

     


    Anexo 7  

    On the trail of the Internet Gopher

    Steven Young, Telecommunications, April 1993.

     

     

    Internet Gopher is a simple protocol for building distributed information systems and organizing access to resources on local networks as well as on the Internet. Gopher is designed to make navigating the Internet and accessing distributed resources easy for novice and non-technical users. Because novice users access information in different ways (by browsing or by submitting search requests), Gopher combines seamless browsing across multiple servers and full-text searching functions. The Internet Gopher client software presents users with a virtual information matrix (gopher-space) that they can navigate by browsing a hierarchical arrangement of items, or search by submitting queries to full-text search engines. For browsing in gopher-space, the gopher client software presents the user with lists of items from which the user selects an item of interest, typically by pointing and clicking with a mouse. For instance, at the University of Minnesota, a user might find a salmon recipe by looking in the fun and games directory for the recipes directory that contains a seafood directory. Alternatively, the user can select an option called "search lots of places" at the University of Minnesota. When this search option is selected, the user is prompted by the gopher client software for a key word (salmon) and a full-text search is done by the server. The result of the search is a list of items that matches the search criteria. While searching for recipes is fun, Internet Gopher has serious applications: at the University of Minnesota it is possible to search through a technical information Q&A (Questions & Answers) data base of over 7000 items about microcomputers and workstations, which allows microcomputer users to research possible causes of hardware and software problems easily. Gopher is also used to post job opportunities and make text data bases easily accessible at sites around the world. Gopher is also used to distribute news: the University of Minnesota campus newspaper, the Minnesota Daily, is available on-line in full-text searchable format, as are weather reports for the entire US. One of Gopher's strengths is that information at a server in Italy can easily be referenced by a server in Indiana, and geographically distributed servers are accessed transparently by the user. How is this done? A Gopher client is configured with the address of a single Gopher server. When the client is launched, it contacts this server for an initial list of items to display to the user. Each item has a type associated with it so that the client software can differentiate between documents, directories, search engines, sounds, etc. The type descriptor also makes it easy to add functionality to the Gopher protocol by defining new types. Each item also has a name (to be displayed to the user), a selector string (to be sent to a server to get the contents of the item), and the port and name of the machine on which the item resides. The machine name and port can easily be used to refer to other Gopher servers; this makes it easy to construct links (pointers) to items that reside on other servers. These links can refer to individual documents, search engines, or directories (collections of items). Because there are gateways from Gopher to other services, Gopher clients can transparently access information on non-Gopher servers including WAIS, Archie, file transfer protocol (FTP), and USENET news. The Gopher gateway to Archie translates ftp sites listed by Archie into items that a Gopher client can access directly through the Gopher-to-FTP gateway; this makes finding and fetching items via anonymous ftp seamless with a Gopher client. As of December 1992, there were over 500 Gopher servers on the Internet and over one million items available on these servers. This growth created the demand for a way of searching for items across all of the gopher servers. The University of Nevada has developed a service called VERONICA (very easy rodentoriented net-wide index to computerized archives), which is a searchable index of item names for most of the gopher servers. The addition of VERONICA to the Internet Gopher's bag of tricks makes it even easier to find what one is looking for. Exact measures of Gopher usage are difficult since the servers are so widely distributed. The only way of exactly measuring usage would be to look at all the servers simultaneously, and this is clearly impractical. Still, it is interesting to know that between November 2 and December 7, 1992, the two main gopher servers at the University of Minnesota saw requests from 35,000 different hosts and handled just over one million transactions. Gopher software is available for anonymous FTP from boombox.micro. umn.edu in the pub/gopher directory.

     


    Anexo 8  

    "Una biblioteca puede estar dentro de su computadora"

    El Diario de Caracas, 28 de Febrero de 1995.

     

     

    La Biblioteca Nacional de Medicina, ubicada en un suburbio de la ciudad de Washington, es la mayor biblioteca de investigación del mundo en un solo campo científico: la medicina. Forma parte de los Institutos Nacionales de Salud, tiene volúmenes que se remontan al siglo XI y posee más de 5 millones de libros, revistas, microfilmes, elementos audiovisuales y otras formas de conocimiento médico registrado. La mayor parte de este material puede obtenerse ahora por medio de un sistema computarizado de recuperación de información, conocido como Medlars (siglas en inglés de Medical Literature Analysis and Retrieval System - Sistema de Recuperación y Análisis de Escritos Médicos). Los usuarios que deseen escritos médicos publicados desde 1966 hasta el presente pueden consultar rápidamente más de 15 millones de registros de 25 bancos de datos de la Biblioteca Nacional de Medicina. El banco de datos más grande es conocido como Medline y contiene más de siete millones de citas, la mayoría de ellas con breves referencias de contenido, de más de 3 mil 500 revistas biomédicas.

    Grateful Med, un programa de computadora extremadamente versátil, tiene todo lo que hace falta para buscar información en los bancos de datos de la biblioteca por medio de una computadora personal, ya sea IBM o Macintosh, y un modem. También suministra los títulos completos de los temas médicos. La simplicidad y eficiencia de buscar con Grateful Med lo han hecho enormemente popular y desde su presentación se han vendido más de 80 mil ejemplares del programa. La biblioteca vende el programa por 29,95 dólares (por medio de otro organismo del gobierno federal). Además de Medline, Grateful Med proporciona acceso a por lo menos otros 20 bancos de datos, incluso Aidsline (información sobre el Sida en línea), Cancerlit (literatura sobre el cáncer), Toxline (información sobre toxicología en línea), Chemline (diccionario químico en línea), etcétera. Con la excepción d los bancos de datos sobre el Sida, que son gratuitos, la biblioteca cobra por el acceso en línea. E1 arancel es de alrededor de 2 dólares por la búsqueda de cada artículo.

    La biblioteca también proporciona documentos y acceso a una amplia variedad de servicios por medio de sus computadoras servidoras de comunicación World Wide Web. Los usuarios deben tener un programa de lectura Web, como Mosaic (que viene para Unix, Macintosh y MS Windows). Mosaic y otros clientes de Web permiten que la biblioteca suministre información en un formato parecido a materiales publicados e incluye vínculos a documentos, fotografías, archivos de sonido, cortes de video y sesiones en línea Telnet. No se cobra por la mayor parte de los servicios provistos a través de Internet. E1 usuario establece conexión con una computadora servidora World- Wide Web, especificando una forma de dirección electrónica conocida como Ubicador Uniforme de Recursos (URL). Para poder comunicarse con OLI/IHM debe especificarse el URL para la principal computadora servidora NLM World Wide Web, HyperDOC: http://www.nlm.nih.gov/. Con el advenimiento de las nuevas tecnologías y de la "supercarretera de la información", los países de los más apartados rincones del mundo podrán viajar en el futuro por esa autopista para llegar a la Biblioteca Nacional de Medicina de Estados Unidos.

     


    Anexo 9  

    "Global risk management for Internet users"

    Peter Heywood, Data Communications, November 1994.

     

     

    Companies eager to reap the benefits of Internet access face a dilemma: They must carefully weigh the promise of an easy and low-cost way to exchange information with outside organizations against the threat of compromised security on their own corporate nets. Infonet Services Corp. thinks the decision to get wired ought to be a no-brainer: The international VAN (value-added network) operator is offering full Internet access without the anxieties that go hand in hand with being exposed to millions of unknown users. Infonet has established a new division, called Info.net, that plans to roll out the first international secure Internet service in January 1995. It is likely that the service will be available through all of its PTT shareholders in Australia, Belgium, France, Germany, Japan, Norway, Singapore, Spain, Sweden, and Switzerland.

    Infonet is expanding global access even further by providing a way onto the Internet via its X.25 backbone, which extends into 53 countries. Info.net's service caters both to companies that wish to make information available over the Internet and customers seeking information. Info.net has set up an Internet host site at which customers can park any files they wish to without putting their own systems at risk. Further, Info.net allows only authorized users to access its host. And each posting customer can limit access to certain files, such as designs under development. Info.net customers can connect via a dedicated IP network that runs over Infonet's international frame relay backbone. They also can tap into the service via Infonet's international X.25 network. This means that entrepreneurs in locations such as the Czech Republic can set up shop as local Internet service providers. These customers set up telnet sessions with an Info.net host, which acts as an agent, collecting data from other Internet hosts. Users can download the assembled information using Zmodem or Xmodem file transfer protocols. Authorized users who are not Info.net customers can access the host site over the Internet or by dialing directly into terminal servers. Infonet plans to deploy servers for World Wide Web (WWW), Gopher, Wide Area Information Services (WAIS), FTP, and telnet Internet services, along with tools for finding other information, such as addresses. The mainframes handling these services also support e-mail, including multimedia mail complying with the IETF (Internet Engineering Task Force) MIME (multipurpose Internet mail extensions) standard.

     


    Anexo 10  

    "Internet Group progress on secure IP"

    Ward Bathrick, Telecommunications, December 1994.

     

     

    The Internet is fast becoming a fixture in mainstream American culture and already links some 10 million users in more than 130 countries. But the rapid growth of the Internet brings the concomitant rising fear that security breaches on the net could reach epidemic proportions. Recognizing a critical need for more sturdy security measures, a specialized working group has been created to address these critical security issues. The lnternet Protocol Security group, known as the IPSEC working group and consisting of leading technologists from a number of major U.S. companies, is tasked with investigating the requirements and standards available to secure networks.

    The critical first step to fortify the Internet was taken when the IPSEC recently defined the security services of the IP security protocol (IPSP), which will provide four main areas of security: data confidentiality, data integrity, authentication, and access control. The protocol consists of two primary components: a key management protocol and a security encapsulation protocol. The key management protocol provides three main functions: the generation of paired encryption keys, the authentication of recipient end systems, and the negotiation of security services exchanged between two end systems. The security encapsulation protocol provides the enforcement entity of the IPSP security architecture. Using the security services previously negotiated, the security encapsulation protocol protects the data as it traverses the networks. If encryption is indicated as a required security service, the encryption key generated under the key management protocol is used.

    The primary advantage of the IPSP protocol is that once it is finalized and posted as a request for comment (RFC), it will be an Internet standard, free of charge to all implementors. As an Internet standard, any vendor will be able to construct an IPSP product from the RFC specification. Following the critical establishment of the IPSP for these security services, the working group's next task is to take the security mechanisms and place them into a simplified fixed field format. The IPSEC is currently working to combine the requirements for highly compressed encoding, which conserves bandwidth, with the requirement for a fixed, easy-to-parse format, which aids in high-speed processing. This will result in one common format that meets the need for both low overhead and high-speed communications.

    The IPSEC will also develop companion key management technology as an application-layer protocol that is flexible enough to provide authentication between users while also capable of generating keying material for security protocols at any layer. This companion key management technology will be based upon public-key techniques that will support distributed authentication and key management without requiring an on-line third-party key distribution center. Key distribution center-based approaches are planned for a follow-on development.

    Other future activities include the establishment of requirements documents for the encapsulation and key management protocols. Preliminary work has already been started by a few members, such as Columbia University and the National Institute of Standards and Technology (NIST), on an Internet draft defining the IPSP encapsulation protocol. These early works will be considered by the group for implementation.

    The IPSEC, which is comprised of participants from Advanced Networks and Systems (ANS), AT&T, BBN, Digital Equipment Corporation, Hughes Aircraft Company, Motorola, and Qualegitimación de capitalesomm, brings a diverse technical background, ranging from secure military and government networks to mobile and interactive multimedia networks. ANS currently produces KeyRing, a product that accomplishes both a distributed key management function and a network layer encapsulation, while Hughes Aircraft has demonstrated NetLOCK security software for network communications, which is a network security product providing both distributed key management and the International Standards Organization (ISO) network layer security protocol (NLSP) for encapsulation. Motorola has the network encryption system (NES) product line, which implements the security protocol for network layer three (SP3) from the National Security Agency's Secure Data Network Systems program. Columbia University has discussed their swIPe protocol, which has implemented several key requirements for a successful IPSP, while Qualegitimación de capitalesomm has developed a compact encapsulation protocol that has incorporated most of the concepts of the IPSP.

     


    Anexo 11  

    "The Internet: A decentralized network of networks"

    Bob Alden, The Institute, IEEE Spectrum, February 1995.

     

     

    For those of you who use the Internet regularly, it becomes as familiar as the highway one takes to home or work every day. For some, it is still a mystery yet to be unraveled. Even for some who have access to Mosaic or Gopher clients and have learned to click or hit return and see the various screens unfold, it is still a mystery. It is as if we are being driven in a bus and allowed to tell the driver which way to turn as we gaze in wonderment out the window. Such is the enabling power of the latest software that can be installed for us. Why is it that some of us do not seem to be able to access some of these new and powerful features? Some understanding of the Internet is useful in working out what we can have access to and what we need to do to get that access. The history of the Internet is helpful in understanding how it has evolved and how it works.

    BIRTH OF THE INTERNET. What we know today as the Internet started in 1969 in the United States as a network to link four computer sites that were conducting research for the U.S. Department of Defense. These sites were the Stanford Research Institute, the University of Utah, and the Universities of California at Los Angeles and Santa Barbara. These network became known first as ARPAnet, then DARPAnet, for tbe Defense Advanced Research Projects Agency that issued the request for a proposal for the network's development. The speed of that network was limited by the interconnection lines that allowed data transmission of up to sbout 56 kilobits per second (kb/s). This is equivalent to about three full screens of text per second or about four times the speed of a 14.4 kb/s modem.

    By the early'70s, the number of sites had grown from the initial four to about 50, and by the early '80s to a couple of hundred. During the '80s this number increased rapidly. In 1987, when the number of sites was measured in the thousands, the National Science Foundation (NSF) sponsored a so- called backbone connection with a capacity of 1.5 Mb/s (a factor of 30 times faster, or 90 full screens of text per second) and DARPAnet began the transformation into NSFnet. These connections are known as T1 lines. By 1991, T3 lines were introduced with capacities of 45 Mb/s (another factor of 30 for a capacity of some 3,000 full screens of text per second) to connect hundreds of thousands of sites. The 1994 figure is about a couple of million sites with an average of 10 users per site, or 20 million users. Initially the sites were mainframe computers with perhaps a hundred users per machine. Today, we have a range of computers connected, some mainframes and many workstations with anywhere from a dozen users to a single individual.

    CONNECTED NETWORKS. While this backbone was developing, so was the plethora of regional networks with their own relatively lower capacity (or speed), their own administration and operating policies and their connections to the high-speed backbone. These connertions to the backbone generally fall into one of two categories. So-called full Internet connectivity implies that the connection is transparent to the user. If you have the right hardware, software and permissions, you can connect your computer on one network to a computer on the other network and use any of the Internet tools, such as browsing on servers for text or graphics information, transferring files or using a library catalog program. Some networks only have a limited connection to the Internet. Other networks, while they have a full physical connection, choose to offer limited services.

    BITNET (called the Because It's There network or Because It's Time, depending on who you ask) developed as a network of primarily university-based computer inter connections with a store-and forward mode of passing e-mail messages from one tape drive to another. This network served some 2,000 nodes in about 50 countries. Today many parts of the original BITNET have merged into local networks with full Internet connectivity.

    The UUCP network grew as Unix systems operators communicated with each other using the UUCP (Unix-to-Unix CoPy protocol). This group developed extensive use of electronic mail and discussion groups-the now familiar Usenet News.

    Fidonet developed as independent bulletin board system operators (sysops) created local dial-up services as modems became popular. These sysops developed the practice of passing groups of personal messages and files to their closest neighbors over phone lines in the middle of the night when traffic and rates were low. There are now connections to the Internet at various places; however, the essence of this network is still intermittent message-passing.

    The Canadian (CAnet) and European Advanced Research (EARN) networks were the first regional networks outside the United States, and they have been followed by many others. They can perhaps best be described as Internet extension networks with varying degrees of connectivity. Both within and outside the United States, these regional networks offer connection to the Internet - usually to other organizations, which in turn offer log-in services to individuals. Thus, the customers of these regional networks are the universities colleges, government departments, corporations and commercial service providers, all of whom have large computer systems witb many individual users.

    The other major group of networks is the set of commercial service providers (CSP) such as America OnLine, AT&Tmail, CompuServe, Delphi, Genie, MCImail, Prodigy, etc. Many of these began with a set of customers who wanted primarily to access information services and secondly to communicate. These CSPs served their own customers, often with one computer in a central location and the use of rented public data networks to provide local access. Connection to the Internet often did not exist or only existed as a limited e-mail transfer mechanism. More recently, many of these CSPs have started to offer Internet access as a primary service.

    The Internet is truly a network of networks. At present the backbone, the NSFnet, is located in the United States, and there are dedicated links to other parts of the world. As the use of the Internet grows, we can expect growth of the backbone in both capacity and geography. The Internet is experiencing unprecedented growth. For most of its life, which is only 25 years from that initial connection of four computer centers, it has been the purview of the computer experts. Less than two years ago, the public (through the popular press) discovered it. What was a growth phenomenon has become an explosion. Public participation is incredible, as are the demands of these users. We only have to understand that one small graphics file is equivalent to dozens of full screens of text to realize that the demands of Web clients will both stress the existing system and likely drive the next level of capacity expansion.

     


    Anexo 12  

    "Traveling the information highway"

    Bob Alden, The Institute (IEEE Spectrum), August 1994.

     

     

    As we entered the '90s, e-mail seemed a big step forward in communicating and accessing information. It was mainly text and point to point. As we head for the middle of this decade, our information retrieval potential is exploding. The sheer volume of electronically stored information requires the ability to search efficiently. Mere simply formatted text is being replaced by a mix of elegantly presented text, graphics and sound. This material can be combined in virtually real time using resources available around the globe. New tools are being developed to handle this explosion of information. The Web and Mosaic are two of those tools.

    SERVERS AND CLIENTS. Let's start with the difference between servers and clients. A server is a package of organized information on a computer system. The client is the program you use to connect to the server. There are gopher servers and web servers; the web server is more complex than the gopher server. The client you need to connect to a web server has to have more features than one that you use to connect to a gopher server. We will first discuss the web server as an extension of a gopher server. Later we will discuss clients that can connect you with gopher and web servers.

    GOPHER LIMITATIONS. Each gopher server contains a so-called root directory, which is the top-level menu of information. You connect to the gopher at this point. The root directory contains the names of the next-level directories. This process continues for any number of levels. Text files and other forms of information and resources are listed in the various directories. To go from one item of information to another, you may have to backtrack through this tree structure. There are several difficulties. One is the problem of naming and organizing the directories meaningfully. Another is the reality that many items fit equally well in many directions. Also, as the size and complexity of the gopher increases, the number of steps to find a particular item increases. We can solve the latter problem, if we need to repeatedly trace the same path, by using bookmark. You add a book bookmark besides an item (by hitting the "a" key). The nexttime you use gopher, you call the bookmark screen (by hitting the "v" key), and select one of your bookmarks. The bookmark idea is particularly useful if the second item is on a different server from the first. Most gopher servers interconnect to other gopher servers for much of the information they list. This avoids duplication of information and simplifies the process of updating. In computer jargon, one gopher is hooked to another gopher. The transfer from one server to another is often transparent to you, but may introduce a time delay.

    WEB SERVERS. World Wide Web (or WWW or W cubed or simply the Web) is an extension of the gopher concept. In text files that you read on a web server, certain words are highlighted. If you select a highlighted word, you are transferred to another text file that is likely to be in a different directory and possibly on a different server (computer). This implies that the difference between text files and directories is blurred. Most important: duplicate entries are eliminated. A document that contains text with highlighted words and hidden imbedded commands that cause the transfer to another document (file) is referred to as a hypertext document. We use a hypertext editor to produce the document. The next step is hypermedia. The hypermedia document contains, besides highlighted words, special symbols used to display graphics files or play soundtracks. The word hypertext is attributed to Ted Nelson, the founder of the Xanadu Project in the mid '60s. The Web was started in 1991 at the European Center for Nuclear Physics (CERN) in Geneva, Switzerland. Web servers can exist on their own or be imbedded in gopher servers. You connect to a web server by connecting to what is called a home page. At present, many so-called WWW home pages are in very early stages of development and some hypertext or hypermedia features are extremely limited or may not work. Also, there are often long delays while graphics or sound files are transferred.

    WHAT YOU NEED. The use of hypermedia features requires more system resources than those needed for gopher, and incredibly more than for e-mail. However, the potential is exciting and the availability of such tools will likely drive the development of higher-capacity networks and more sophisticated software to make use of these tools. Which brings us to the question: Now that we know what the Web is, how do you access it? You need full Internet access and the right kind of hardware and software to explore or browse the World Wide Web. To access these features in the Web you need, for example, a PC with color monitor and sound card running Mosaic software under Windows, all connected via a high-speed local area network to the Internet. NCSA recommends that your PC be a 486/33MHz with 8 Mb RAM. I know that the "for example" is a bit of a cop-out, but I have learned that there will always be more variations in software and hardware than one person can ever keep track of. What I am about to discuss is my own experience. If some of you have other, very different experiences which you think our readers would find useful, please send me an e-mail message with the details.

    CLIENT SOFTWARE. You need a client to access a server. I am presently using three clients: Gopher, Hgopher, and Mosaic. The Gopher client is a program that runs on the host computer where I have my e-mail account. This client is a program that runs under the Unix operating system on our Silicon Graphics (SGI) workstation Our system manager obtained the software from anonymous ftp at boom box micro.umn.edu (that's the University of Minnesota, birthplace of Gopher). I log on in the usual manner and type gopher at the Unix prompt. The default convention is that I connect to our on-site gopher. If I type gopher gopher.ieee.org, I connect to the main IEEE gopher server. In my view, this is your basic gopher access package. You can access it remotely using a modem and dial up line. It's simple and it works. I have also installed (this is a euphemism for saying that I asked our system manager to do this) an Hgopher client on my PC. This software was available from our computer systems support group at my company (a university). The client connects directly to the on-site gopher server by default. I had to get permission to have my PC authorized for off-site access, since the gopher server connects to the Internet. I cannot dial up from outside to use Hgopher. Hgopher runs in Windows, so I click on the Hgopher icon and see the root directory of our local gopher. This display is in color with several visually pleasing enhancements, but not operationally very different from my basic gopher client.

    MOSAIC. We recently installed Mosaic, which allowed me to sample the intrigues of the Web. Installation was not simple. Since my Mosaic runs under Windows on my PC, I needed off-site access permission, as in the preceding case. Again, I cannot use an external dial-up unless I am running an Intemet access protocol, such as SLIP. SLIP (Serial Line Internet Protocol) enables you to use a phone line and modems to connect your PC to the Internet, instead of connecting as a terminal to another computer (workstation) that is directly connected to the Internet. We obtained the Mosaic software from ftp.ncsa.uiuc.edu. The National Center for Supercomputing Applications at the University of Illinois at Urbana-Champaign is the developer of Mosaic. We found that we had to use the NCSA-exclusive TCP drivers instead of the ones we were using (Beame and Whiteside). This means that I have to reboot with changed autoexec.bat and config.sys files whenever I want to use Mosaic. We discovered that Microsoft does not provide the appropriate software to play the .au sound files that are sent from the web servers we tried. Then we discovered that NCSA has a zipped file wplany.zip which contains the exe file that we installed under Windows. We also had to carefully edit the mosaic.ini file and put it in the Windows home directory. The result was worth the effort, in that we could view pleasingly presented hypertext with graphics and sound. The initial Mosaic screen has Windows based menus that allow the user to select from a variety of gopher or web servers. Mosaic clients are available for Unix and VMS platforms, and Macs and PCs. There are also other browsers (client software developed to aid the browsing of web and gopher-style servers). Resources such as the web server and clients like Mosaic provide us with the opportunity to work cooperatively in any part of the world where the Internet exists, and organize access to information.

     


    Referencias  

    Pie de página

    Referencias consultadas

     

     

    [1] Ramírez M. Bayardo A. “legitimación de capitales, legislación especial referida al lavado de dinero” ILANUT, 3° seminario regional de medidas efectivas para combatir delitos de drogas y mejorar la administración de justicia penal, del 16 al 27 de julio de 1990, San José de Costa Rica.
    [2] La convención de las Naciones Unidas contra el tráfico ilícito de estupefacientes y sustancias sicotrópicas, aprobadas en Viena el 19 de diciembre de 1988, definió por primera vez el delito de blanqueó.
    [3] La convención de las Naciones Unidas contra el tráfico ilícito de estupefacientes y sustancias sicotrópicas, aprobadas en Viena el 19 de diciembre de 1988, definió por primera vez, el delito de blanqueó. La declaración de principios de Basilea, firmada el 12 de diciembre de 1988, fijó el marco de la obligación de vigilancia de los bancos con respecto al dinero sucio. Dichos principios se reproducen ampliamente en la directiva europea de 10 de junio de 1991.
    [4] Ordenanza 105-80, de 25 de Abril de 1990, Departamento Federal del Tesoro.
    [5] Servicios de aduanas, servicios tributarios, servicios secretos, FBI, inspección postal, Dirección de lucha contra las drogas (DEA), Banco Federal, etc.
    [6] La FINCEN se define a sí misma como un law enforcement service, un servicio de represión según la traducción usual.
    [7] Actualmente, las únicas actividades de legitimación de Capitales punibles en Francia son las que provienen del tráfico de drogas.
    [8] CICAD/LAVEX/doc.12/97, reunión del grupo de expertos sobre lavado de dinero del 13 al 15 de mayo de 1997 Washigton, D.C.
    [9] Programa de las Naciones Unidas para la fiscalización internacional de drogas, "Programa de asesoramiento Jurídico", pag. 3, 1998.
    [10] Salvo en el caso en que el órgano designado por la ley es el fiscal y que este, como en algunos países de tradición jurídica romanística, tenga facultades discrecionales que le permitan iniciar o no una investigación según las circunstancias, y desempeñar esa función de filtro.
    [11] Programa de las Naciones Unidas para la fiscalización internacional de drogas, "Programa de asesoramiento Jurídico", pag. 6, 1998.
    [12] Bélgica, ley de 11 de enero de 1993, art. 15; España, ley de 28 de diciembre de 1993, art. 16; Países Bajos, ley de 16 de diciembre de 1993, art. 10. "Es el término más comúnmente empleado en las reuniones internacionales para designar a esos organismos." Argentina, Australia, Austria, Bélgica, Canadá, Dinamarca, Eslovenia, España, Estados Unidos de América, Finlandia, Francia, Hong Kong, Islandia, Italia, Japón, Luxemburgo, México, Mónaco, Noruega, Países Bajos, Portugal, Reino Unido de Gran Bretaña e Irlanda Norte, Suecia. Premier rapport de la Commission sur l'application de la directive au blanchiment des capitaux (91/308/CE), Brucelas, marzo de 1995.
    [13] Documentos oficiales del Consejo Económico y Social. 1994, suplemento número 11 E /1994/ 31. Capítulo I Seccción A.
    [14] UNITED NATIONS, CE y SE / conf. 88/ 2/ 18 de Agosto 94.
    [15] Gary W. Potter, Criminal Organizations: Vice, Racketeering and Politics in an American City (Prospect Heights, Illinois, Waveland Press, 1994. Págs. 2 a 7)
    [16] del 19 de diciembre de 1988 (Convención de Viena de 1988)
    [17] Matus, Carlos. “Adios Sr. Presidente”, planificación, antiplanificación y gobierno. Editorial Pomaide, ensayos, pag. 49 y 215. Venezuela. 1987.
    [18] ".....Debe tenerse presente siempre, que el listado de situaciones enunciadas en este documento no agotan completamente el universo de las posibles y probables acciones de los legitimadores de capitales. Este listado siempre resultará parcial e incompleto, por lo que deberá complementarse con el juicio estratégico y la diligencia debida a que haya lugar." Al respecto ver: Plan Institucional Integral contra la legitimación de capitales. Banco Caracas/BU. Caracas, Abril de 1999.
    [19] http://www.alexia.net.au/~www/yendor/internetinfo/ip_adrs.html
    [20] Sabino Carlos “Como hacer una tesis”, página 104.
    [21] Arias Fidias “El proyecto de investigación”, página 26, 1° edición
    [22] Arias Fidias “El proyecto de investigación”, página 45, 1° edición
    [23] Fuente: Financier-Compuconsult/Términos Bancarios, Banco Provincial/El Nacional.
    [24] Cervo A. y Bervian P., “Metodología científica”, 1989, p. 41.
    [25] Sabino Carlos, “El proceso de investigación”, 2ª edición, 1992, p. 45.
    [26] Universidad Nacional Abierta, “Técnicas de documentación e investigación II”, 5° edición, 1985, p.23.
    [27] Universidad Nacional Abierta, “Técnicas de documentación e investigación I”, 3ª reimpresión, 1995, p.27.
    [28] Universidad Nacional Abierta, “Técnicas de documentación e investigación I”, 3ª reimpresión, 1995, p.29.
    [29] Arias Fidias, “El proyecto de investigación”, 2° edición, 1997, p. 47.
    [30] UNA, “Técnicas de documentación e investigación II”, páginas 271-280.
    [31] Balestrini A. Mirian, “Como se elabora el proyecto de investigación”, p. 126.
    [32] UNA. “Técnicas de documentación e investigación II”, páginas 280-290.
    [33] Revista Byte. Mayo 1998. Volumen 2. Número 15. Pag. 30-40
    [34] Revista Técnica en Redes y comunicaciones. Volumen 5. Pag 50 - 60
    [35] Boletín de información de prevención del delito y justicia penal de las Naciones Unidas, No. 26 y 27, Noviembre de 1995, pag. 25.