En este artículo vamos a hablar sobre diferentes curiosidades relacionadas con el mundo de las matemáticas.
Índice del artículo
Diferentes curiosidades acerca de las matematicas
La Ley de Benford:
La Ley de Benford establece que si consideramos diferentes listas de números, el dígito 1 tiende a aparecer a la izquierda del todo con una probabilidad aproximada del 30%, mucho mayor que el esperado 11.1% que resultaría si cada dígito apareciera en esa posición una de cada nueve veces. Frank Benford publicó su trabajo en 1939, aunque el fenómeno ya había sido descubierto por Simon Newcomb en 1881.
Newcomb observó que en las tablas de logaritmos, las páginas que corresponden a los números que empiezan por 1 están más gastadas debido a que este número es el primer dígito en aproximadamente un 30% de los casos. Curiosamente es un logaritmo el que nos da esta probabilidad basándose en que los números y su distribución son invariantes a la escala (por ejemplo, la longitud de los ríos debe cumplir esta ley tanto si los medimos en metros como si lo hacemos en pies o millas).
Benford determinó que la probabilidad de que el primer dígito sea n es log10 (1 + 1/n). Así, en España, la población de los 8117 municipios cumple esta distribución: el 31.1% empieza por 1 (0.301 teórico), el 17.6% empieza por 2 (0.176 teórico)… y así, sucesivamente. Debe ser de las pocas leyes que se cumplen…
Esta ley ha servido de mucha ayuda para detectar fraude en organizaciones grandes, con grandes listas de números como partidos políticos, empresas, sindicatos, mafias… Cuando te inventas las facturas, al final alguien lo paga.
👉Consulta nuestros niveles:
La serie armónica:
Hoy puede ser el día más feliz de tu vida. La probabilidad de que esto ocurra es 1 partido del número de días que tengas. Y mañana otra vez, y al próximo, y al siguiente… 1 para el día que naces, 1/2 para el segundo, 1/3 para el tercero y así, sucesivamente. Si sumamos esos n términos 1 + 1/2 + 1/3 + 1/4 +…+ 1/n esta cantidad se hace mucho más pequeña que el término n. Por ejemplo, podemos determinar que en mis 34 años que tengo he vivido 10 veces el día más feliz de mi vida, y que todavía me queda otro por vivir, aproximadamente.
Este modelo sirve para determinar cuántas veces se bate un récord mundial (de atletismo, temperatura veraniega, intensidad de erupciones en volcanes…) y cómo no, se cumple. Otra ley que nos cuesta saltarnos.
Si buscamos por ejemplo el número de terremotos récords al año que se produjeron en el pasado siglo contando cuántas veces se superó el anterior terremoto más fuerte vemos cómo, efectivamente, hay un total de 5 como predice la serie (1 + 1/2 + … + 1/99 + 1/100 = 5.187). Esta serie, pese a parecer que converge a un número, no lo hace; diverge hasta infinito. Es decir, que si yo fuera un elfo que tuviera la capacidad de no morir viviría infinitas veces el día más feliz de mi vida. Alucinante. Como dijo Johann Bernoulli en su Tractatus de Seriebus Infinitis,
“De modo que el alma de la inmensidad habita en lo diminuto. Y en los límites más estrechos no hay límites inherentes. ¡Qué alegría discernir lo pequeño en la infinidad! ¡Percibir lo enorme en lo diminuto, qué divinidad!”.
Estas series infinitas tienen muchas particularidades, por ejemplo, la suma de 1/n2 (1 + 1/4 + 1/9 + 1/16 + …) sí converge y es π2/6, increíble, el número pi aparece por sorpresa, como diciendo que esto es mucho más mágico de lo que parece. Y si nos pasamos a la suma de armónicos de números complejos llegamos al problema más famoso y difícil de las matemáticas: la Hipótesis de Riemann, un problema que lleva sin solución desde el último siglo y medio.
P-NP:
Es uno de los 7 problemas del milenio, quizá, mi favorito. Es un problema muy complejo que irónicamente analiza la complejidad. La teoría de la complejidad estudia cómo crece el coste computacional (principalmente en memoria y tiempo) de resolver un determinado problema en relación a lo que crece el tamaño de dicho problema. Por ejemplo, cuánto tiempo cuesta ordenar 100 números, o 1000, o un millón.
Hay algunos problemas (como este) que tienen algoritmos para resolverlos que siguen un coste logarítmico, muy asumible. Otros siguen un crecimiento polinómico (P), un poco más duros pero también asumibles. Y luego están aquellos en los que el coste crece de manera exponencial (o peor): estos son los NP.
Hay que saber diferenciar entre el problema en sí y la forma de resolverlo, el algoritmo. El problema no va a cambiar pero sí la forma de resolverlo, ya que hay algoritmos más eficientes que otros. Esa eficiencia tiene una cota, un límite, que en muchas ocasiones no sabemos si está muy cerca o muy lejos. Depende del problema. Si para un problema encontramos una manera de resolverlo tal que tenga un coste polinómico o menor, diremos que es un problema tipo P pero si el problema en sí no tiene un
algoritmo que lo resuelva en ese tiempo diremos que es NP.
Se cree que son tipos diferentes de problemas, pero quién sabe, igual es que no somos lo suficientemente inteligentes (todavía) para resolverlo. Demostrar que son tipos diferentes de problemas o el mismo, es en sí un problema P-NP; ¡fascinante! Como dijo Scott Aaronson, del MIT, “si P = NP, entonces el mundo sería un lugar profundamente diferente de lo que normalmente asumimos que sea. No habría ningún valor especial en saltos creativos, ninguna brecha fundamental entre la solución de un problema y el reconocimiento de la solución una vez que se encuentre. Cualquiera que pudiera apreciar una sinfonía sería Mozart; cualquiera que pudiera seguir un argumento paso a paso sería Gauss…”. Quien resuelva este problema podrá robar los 200.000 millones de dólares en bitcoin, curar el cáncer, o acceder a cualquier tipo de cuenta con contraseña. Y pasar a la historia.
Deja una respuesta