La conocida ‘Deep Web’ o también el Internet Profundo llamado, ha crecido recientemente de manera bastante desmedida, se considera ahora, que esta nueva parte del Internet es incluso hasta 500 veces más grande totalmente de lo que ahora conocemos en la red global, si se toma bastante en cuenta que, de manera muy visible, existen mucho más de 634 millones de sitios web.
Moisés Polishuk Melman, director de la consultoría Asesoría en Sistemas, Seguridad y Teleproceso (Asiste) en la Ciudad de México, explica que es vital hablar del Internet superficial para tratar la contraparte, lo que sería la ‘Deep Web’.
Al parecer, cuanto sabemos de Internet se debe a la asignación única de una dirección IP concreta para los diferentes servidores y computadoras.
Esta IP se indexa con el fin de que los navegadores las identifiquen de un modo sencillo con el fin de agilizar el proceso.
Bing, Yahoo o Google son motores de búsqueda que actualmente mapean e indexan portales web para que al internauta le valga con poner una palabra clave para encontrar las páginas que desea.
Una parte de la red que en su naturaleza primaria no debería ser indexada por dichos motores continúa existiendo, albergando información que no es pública y que constituye el Internet Profundo, también conocido como ‘Deep Web’ o ‘Dark Net’.
Fernando Gutiérrez, director del Departamento de Comunicación del Tecnológico de Monterrey Campus Estado de México, cree que la web profunda tiene características que impiden su indexación o clasificación, de forma que la información se esconde ante la búsqueda de los motores.
En general, existen cuatro niveles de profundidad web, siendo el primero “noble” o “bueno” al albergar los datos que las empresas hacen públicos, tal y como lo explica Polishuk Melman.
Los usuarios ahora podrán ingresar en la base de información, cuando las empresas lo permitan con una contraseña o permiso que empleen y conozcan solo ellos.
LexisNexis es un ejemplo de dicha base de datos, al ser una fuente de información que cobra por la consulta y que es legal.
La siguiente capa tiene información de gran valor, tales como documentos universitarios, papeles de la NASA y de otros organismos investigadores.
Estos datos pueden ser consultados bajo ciertas características, condiciones y requisitos siempre concretos y exactos.
Por último, los dos últimos niveles poseen sitios y elementos prohibidos, ocultos y que no se desea que sean vistos por nadie, para que no pueda accederse a ellos.
Trágicamente, es en esta última parte donde se esconden problemas tales como la pedofilia, el tráfico de órganos y también información sobre como hacer atentados y artefactos explosivos.
Los hackers acceden a esta parte, bien para combatirla con “sombrero blanco” o bien para lucrarse con ella con “sombrero negro” y efectos tremendamente negativos.
Polishuk Melman, ingeniero informático, afirma que un navegador conocido como TOR (The Onion Router) es capaz de detectar los portales ‘Deep Web’ con la IP del usuario que en principio es oculta.
Al parecer, el navegador es capaz de de captar páginas con terminación .onion, lugares con la connotación “de lo que estamos hablando” dijo Melman.
Edward Snowden, famoso implicado en WikiLeaks, empleó TOR con el fin de poder ver una serie de archivos que dejaban al descubierto casos de espionaje.
Snowden se vio obligado a exiliarse con dicho descubrimiento, encontrándose actualmente en una situación tremendamente delicada.
Fernando Gutiérrez, por su parte, declaró que la red profunda tiene aspectos que pueden ser positivos o legales, debido a que una gran base de datos con fines de investigación y también académicos.
Gutiérrez afirma que la ‘Deep Web’ nació con la WWW, World Wide Web, cuando países como Estonia, Eslovaquia o RRusia desarrollaron bases de datos importantes con desconocidos motores de búsqueda.
Más tarde, la red evolucionó al mismo tiempo que el Internet superficial, alcanzando los niveles actualmente copados.
Según BrightPlanet, empresa con datos al respecto datados de marzo del año 2000, la información pública del ‘Deep Web’ es casi 550 veces mayor en la red superficial, algo que continúa equivalente en la actualidad.
Cabe destacar que otro motor que permite la búsqueda oculta es astalavista.box.sk, aunque plantea riesgos, porque puede aprovecharse la IP ajena.