jueves, mayo 31, 2007

GForge, la continuación de SourceForge

Detrás de SourceForge, el sitio más popular de alojamiento de proyectos libres, está la aplicación web Alexandria. A partir de la 3.0, VA Linux optó por cerrar el código para venderlo a corporaciones como herramienta de desarrollo y gestión de proyectos.

Personalmente creo que el cerrar un codigo despues de abrirlo no habla muy bien de la empresa y/o desarrollador que proporciona el codigo, porque con el usuario no se debe jugar, es el quien al fin y al cabo nos da su voto y usa nuestros software por lo que considero que deben tener el maximo respeto de nuestra parte.

En su momento, el proyecto GNU optó por hacer un fork de la última versión GPL y desarrollar Savannah. Ahora vía Slashdot me entere que uno de los desarrolladores principales de Alexandria, Tim Perdue, está desarrollando otro fork del mismo software denominado GForge.

GForge no es un proyecto de hosting. Se centra exclusivamente en el código. Y la verdad, ya la primera versión proyectada (la 3.0) tiene muy buena pinta. No es un software que esté de más, puesto que el desarrollo del código de Savannah parecía un poco parada. Otros proyectos, como La Forja de Hispalinux también pueden beneficiarse. Tratemos de brindar el maximo apoyo a este nuevo comienzo y distribuyan la noticia.

Web de Gforge: http://www.gforge.org

saludos

cibernetiko

El software debe cumplir la Ley de Moore

Después de años y años de entregar chips cada vez más rápidos para mejorar la performance del software para el escritorio, Intel dijo que ya es suficiente.

"El software debe comenzar a seguir Ley de Moore", dijo Shekhar Borkar de Intel, refiriéndose al concepto de que los microprocesadores ofrecen el doble de la performance cada 18 meses a 2 años. "El software debe duplicar la cantidad de paralelismo que puede soportar cada dos años", sentenció.

Intel advierte que el negocio como lo concemos no puede funcionar. Si los fabricantes de software quieren mejoras en la performance, deben cambiar fundamentalmente la manera en la que escriben sus aplicaciones.

lunes, mayo 28, 2007

Las direcciones IP se acabarán en 3 años

Era inevitable y ya muchos lo sabíamos: hay escases en direcciones IPv4 (las actuales) y se estima que para el año 2010 ya no quedará ninguna IP pública disponible. Es por ello que desde hace ya algunos años que IPv6 ha estado en desarrollo y actualmente bastante maduro, aunque desgraciadamente la mayor parte de las infraestructuras de red actuales no soportan esta nueva versión del protocolo IP

ARIN, la entidad que gestiona las direcciones IP en América, todavía el 19% de IP públicas está disponible, a lo que yo añado el hecho de que se trata de rangos pequeños y muy fragmentados, lo que hace complicada su asignación a las operadoras.

Según WiKipedia, "IPv4 soporta 4.294.967.296 (232) direcciones de red diferentes, un número inadecuado para dar una dirección a cada persona del planeta, y mucho menos para cada coche, teléfono, PDA o tostadora; mientras que IPv6 soporta 340.282.366.920.938.463.463.374.607.431.768.211.456 (2128 ó 340 sextillones) direcciones —cerca de 4,3 × 1020 (430 trillones) direcciones por cada pulgada cuadrada (6,7 × 1017 ó 670 mil billones direcciones/mm2) de la superficie de La Tierra.", una cantidad espectacular y que nunca veremos acabar de direcciones... ¿imaginas tu reloj de pulsera con dirección IP? ¿tu coche? etc...Fuente: http://www.sincables.net/article.php/20070525131355260

viernes, mayo 25, 2007

¿Microsoft engañó a Wikipedia?


Tal título es ciertamente inquietante: ¿por qué querría Microsoft defraudar a Wikipedia? ¿Qué hay de peligroso en la enciclopedia hija del software libre que pueda preocupar tanto a Microsoft?

Por lo pronto Jimmy Wales, el fundador de la enciclopedia libre, dijo sentirse defraudado cuando supo que Microsoft contrató -teóricamente- a una persona para "corregir" artículos publicados allí. Del lado de la empresa de Redmond, una vocera dijo que ellos habían informado por medio de los canales de costumbre acerca de errores en Wikipedia, y como no obtuvieron respuesta, contrataron un experto para modificar los artículos que creyeran necesario.

Seguir leyendo en Mastermagazine.info

miércoles, mayo 23, 2007

Pagina web para hacer cursos online gratis

aqui dejo otro datito fresquito para aquelos que les gusta superar pruebas. podran ver que hay certificados para aquellos mas expertos y variadas areas de formacion

web: http://login.osirislms.com/offline/cursosdisponibles/index.htm

saludos

cibernetiko

MundoDivX.com una web para aprender todo sobre el video

bueno, aqui les dejo un datito para que los que quieren aprender algo relacionado con el video empiecen sus pasos por aqui. es una buena web y personalmente he resuelto varios de mis problemas con archivos de video y ciertos codecs que te dan mas de un dolor de cabeza a veces.

aqui la web: http://www.mundodivx.com/index2.php

saludos

cibernetiko

Compartir archivos de forma segura ahora es Posible






Ahora es posible compartir archivos de forma segura entre un grupo de amigos con Alliance

Alliance esta basado en torrent y esta disponible para GNU/Linux, Mac y Windows, bajo licencia GPL.

El programa cuenta con 2 funciones principales, la principal función del programa es la que permite compartir archivos de forma segura y privada con tus amigos haciendo uso de la tecnología bittorent con lo que tendrás todas las ventajas de este sistema, puedes “husmear” en los archivos de cada persona o buscar y bajar lo que están compartiendo.














Tambien cuenta con un sistema de Chat con el que podrás hablar con uno o varios amigos al tiempo, todo lo que hables esta cifrado con un algoritmo de encriptación y trae posibilidad de añadir otros algoritmos un poco mas fuertes.













Aunque el proyecto es joven Alliance es una herramienta muy util para compartir archivos con tus amigos.

Descargar

Fuente: dragonjar.us

jueves, mayo 17, 2007

La Verdad sobre el Traffic Shaping en VTR: Pruebas Concretas

Les presento a Shasta 5000 (a su izquierda gordito y sonriente). A pesar de que su nombre puede sonar parecido al de un androide de Star Wars, Shasta 5000 no camina ni habla, pero dentro del mundo de las Redes es un ser semi-pensante.

Este equipo fue adquirido por VTR GlobalCom a la empresa Nortel Networks en el año 2003 por motivos que públicamente se desconocen, lo único que podemos saber, es cuales son las capacidades de este equipo según lo señala el comunicado de prensa que lanzaría Nortel a propósito de este negocio con VTR.

Seguir leyendo en NeutralidadSI

miércoles, mayo 16, 2007

La resonancia magnética descubre zonas del cerebro que se iluminan mientras mentimos

Investigadores norteamericanos han descubierto que durante el proceso de mentir el cerebro humano activa mayor número de áreas que mientras decimos la verdad y han ideado un sistema que detecta mediante imágenes de resonancia magnética los cambios cerebrales que se producen cuando las personas mienten. El polígrafo, que mide la presión sanguínea, la respiración y los cambios en la transpiración de la piel mientras se habla para detectar la mentira, y que había sido descartado por su dudosa fiabilidad, será sustituido en el futuro por el nuevo sistema, que profundiza en la comprensión del complejo comportamiento de la mentira.

Seguir Leyendo en Batiburillo.net

Linus Torvalds responde a las insinuaciones de Microsoft

La repercusión de las declaraciones de Microsoft con respecto a las patentes que supuestamente infringe Linux continúan creando polémica. Linus Torvalds ha contestado a dichas declaraciones aludiendo que es muchísimo más probable que sea Microsoft quien esté violando patentes que Linux:

"Si el código fuente de Windows fuera sometido a la misma revisión exhaustiva que sufre el de Linux, podríamos comprobar que en realidad es Microsoft la que estaría violando las patentes de terceras empresas".

"Microsoft debería ser más preciso e identificar las patentes que afirma han sido infringidas. De esta manera sus afirmaciones podrían ser verificadas en los tribunales y en caso positivo los desarrolladores de código abierto podrían reescribir el código y evitar dichas supuestas violaciones".

Fuente: vivalinux.com.ar

martes, mayo 15, 2007

Lynksee Crea tu blog, página personal, comunidad de foros, álbum de fotos y tu Wiki, rápido, fácil, y gratis!

Bienvenido al mundo del software libre. Lynksee es un servicio que agrupa las mejores aplicaciones de software libre existentes. Tanto si eres principiante, como si eres un usuario experimentado, podrás controlar completamente todas las aplicaciones que te ofrece Lynksee, utilizando las herramientas que tienen los propios programas, y sin restricciones. No olvides que el mundo del software libre no se detiene. Lynksee va en paralelo con él y cada día apareceran nuevas aplicaciones, mejoras y módulos para tus páginas.

lunes, mayo 14, 2007

Según Microsoft Linux viola 230 de sus patentes

Lo ha anunciado Brad Smith, máximo responsable legal del gigante del software. En una entrevista llevada a cabo por la revista Fortune, Brad Smith ha cuantificado en 42 las violaciones de patentes en las que infringe el kernel de Linux, y 65 las que incumplen otros elementos de diseño.

Parece que la intención de Microsoft no es la de pasar por los tribunales, sino más bien las de "animar" a las grandes empresas que dependen de Linux a sellar acuerdos de "colaboración" similares a los alcanzados con Novell, Samsung y Fuji Xerox.

No obstante, en Fortune creen que es tan solo cuestión de tiempo que Microsoft emplee dichas patentes contra alguna gran empresa que se niege a firmar el "acuerdo".

Fuente: vivalinux.com.ar

¿AMD acercará ATI al Open Source?

AMD estaría por reformar la muy mala reputación que tiene ATI en la comunidad Open Source si las palabras extraoficiales del director de ventas y márketing de esa empresa en el reciente Red Hat Summit no están vacías. Henri Richard, el individuo en cuestión, dijo en el escenario del evento que "La mayoría de las personas está preocupada en lo que podría perder (propiedad intelectual, etc.)... Nosotros estamos preocupados en lo que podríamos ganar".

Aparentemente, AMD, que compró ATI el año pasado, es conciente del problema de ATI y está decidida a hacer algo al respecto.

Fuente: vivalinux.com.ar

Google creará lista negra de sitios inseguros y peligrosos

Uno de cada 10 sitios web está infectado por malware, indica Google, que se propone informar a los usuarios de Internet antes que estos entren a los sitios potencialmente peligrosos.

Investigación realizada por Google concluye que aproximadamente uno de cada 10 sitios web puede ser perjudicial para el PC de los usuarios de Internet. El estudio se basa en el análisis de 4,5 millones de sitios, donde la compañía buscó eventuales conductas perjudiciales.

Alrededor de 450.000 sitios contenían una u otra forma de malware, como por ejemplo spyware que se instala en el PC del usuario sin el consentimiento de este. De las páginas analizadas por Google, 700.000 eran directamente peligrosas.

Para contrarrestar tales amenazas, Google comenzará a marcar los sitios peligrosos. La compañía aún no decide la forma en que el sistema funcionará en la práctica, pero probablemente se tratará de una ampliación del servicio actual, donde se presenta una ventana de notificación cuando el usuario intenta acceder a un sitio peligroso.

La investigación de Google concluye además que la mayoría de los sitios peligrosos aprovechan vulnerabilidades de Internet Explorer. La gran mayoría del malware solo ocasiona molestias, al instalar programas innecesarios, barras de herramientas y sitios favoritos. La conclusión de Google es que tales programas y códigos reflejan una tendencia hacia algo peor.

En efecto, los sitios inseguros a menudo instalan "keyloggers", es decir, herramientas que permiten registrar todo lo que el usuario digita en el teclado, incluyendo nombres de usuario y claves de acceso. Al combinar tales aplicaciones con un spyware o troyanos que envíen los datos a intrusos, el potencial de fraude económico aumenta potencialmente.

Otros programas usan recursos del sistema, retrasándolos o alterando su rendimiento. Google se dispone a intensificar su lucha contra tales elementos de intrusión. En un comunicado, la compañía admite que no será una lucha fácil.


Fuente: BBC

Internet podría llegar al límite su capacidad

En algunos puntos ya son visibles los primeros problemas en el acceso y en la velocidad de la Red.

La universalización del acceso a Internet desde el hogar, acentuada tras el lanzamiento de tarifas planas cada vez más asequibles, junto con la popularización del uso de determinadas aplicaciones –como YouTube- y servicios –como la telefonía IP- y el incremento del número de dispositivos de acceso, están poniendo al límite la capacidad de Internet.

Algunas de las principales consultoras, como Deloitte, vaticinan que la llamada Red de redes podría alcanzar en 2007 su capacidad máxima, con los problemas que ello conllevaría a la comunidad empresarial on-line y al consumidor final.

En la actualidad, más de un tercio de todo el tráfico de Internet son aplicaciones de vídeo y audio, que consumen mucho ancho de banda. De hecho, hoy por hoy, YouTube está sirviendo al día 40 millones de vídeos lo que supone unos 200 terabytes de datos, es decir, aproximadamente 200.000 gigas, por lo que bastaría un incremento inesperado en el uso de esta aplicación para que se hicieran visibles los primeros problemas en el acceso y en la velocidad de la red como latencia, caída o ralentización del servicio.

Los nuevos protocolos de vídeo y voz requieren cada vez más calidad y más ancho de banda, por lo que en algunas ocasiones, los ISPs y las empresas de telecomunicaciones no consiguen cubrir las crecientes necesidades de ancho de banda para soportar el exponencial crecimiento del uso de Internet. Además, la gestión de los archivos es una tarea complicada y de elevado coste para los proveedores de servicio y los operadores de telecomunicaciones. Así, por ejemplo, de acuerdo con Infonetic Research, un archivo típico de vídeo en Internet llega a consumir 1.000 veces más ancho de banda que un mensaje de correo electrónico. Y mientras el envío de 100.000 emails cuesta a una compañía de telecomunicaciones alrededor de 20 céntimos, la transmisión de 100.000 vídeos de baja resolución tiene un coste próximo a los 15 dólares y 100.000 películas de alta definición alrededor de 10.800 dólares, según datos de la misma consultora.

“Definitivamente, estamos en el principio de un nuevo boom", explica Jon Lindén. “La transmisión de las aplicaciones de vídeo demandan más ancho de banda. Después de años de calma, la industria se enfrenta a un nuevo período, resultado del crecimiento sin precedentes de servicios de vídeo on-line y otras aplicaciones grandes consumidoras de ancho de banda, que exige un aumento de la capacidad de la Red pero también una utilización más eficiente de los recursos existentes".

Fuente: Diarioti.com