Dante Noguez — Dantis Elementorum#
Intro#
El título de este blog está inspirado en los Elementos de Euclides: mi intención es escribir, «según el orden geométrico», acerca de los elementos constituyentes de aquellas disciplinas en las que estoy interesado.
Sobre mí#
Me interesan las matemáticas en general y el machine learning, las ciencias computacionales y la teoría de la información en particular. También la literatura esteticista, la música afroamericana, el derecho constitucional, la biología conductual, la economía austríaca, el materialismo filosófico, la física teórica, las artes marciales mixtas et quid non.
Résumé#
Ingeniero de software especializado en desarrollo backend y machine learning. Actualmente, soy desarrollador sénior de inteligencia artificial en Kavak. Antes, fundé una empresa de comercio electrónico y trabajé en despachos legales como abogado. He escrito sobre literatura, filosofía, derecho, política y economía para revistas, editoriales, periódicos e institutos de investigación.
\(\rightarrow\) dante@odyseus.ai
Proyectos#
Odyseus, donde asesoro a startups enfocadas en IA.
Oh tiempo tus pirámides, un libro sobre Jorge Luis Borges.
A Speech Odyssey, un libro en progreso sobre las distintas capas de abstracción que describen una llamada telefónica automatizada[1].
Música#
Mis álbumes más escuchados del último mes (febrero):

Fig. 1 Imagen generada con tapmusic. Los meses anteriores se pueden consultar aquí.#
eSports#
Un resumen de mis rangos y puntajes en distintos ciberdeportes:
Ciberdeporte |
Categoría |
Rango / puntaje |
---|---|---|
Ajedrez |
Bullet |
1239 |
Rapid |
1306 |
|
Blitz |
1342 |
|
Fischer-Random-Chess |
1429 |
|
Puzzles |
1581 |
|
Puzzle Rush |
30 |
|
Halo |
Halo 3 |
50 (MLG, Dobles, Slayer, Snipers, Lone wolves) |
Halo 5 |
Campeón 28 (Arena), Ónice (Slayer, FFA, SWAT, Dobles) |
|
Halo Infinite |
Ónice (Arena) |
|
Call of Duty |
Warzone |
Diamante 3 (Tríos) |
Citas#
Si deseas citar el material de este blog, puedes utilizar el siguiente formato BibTeX:
@misc{DantisElementorum,
title={Dantis Elementorum},
author={Dante Noguez},
url={https://dantenoguez.com},
year={2022}
}
Bibliografía#
Autor |
Obra |
---|---|
Euler, Leonhard |
|
Epp, Susanna |
Matemáticas discretas |
Hewitt, Paul |
Física conceptual |
Cummings, Jay |
Proofs; Real analysis |
Aleksandrov, Kolmogorov y Lavrent’ev |
Mathematics |
Asimov, Isaac |
Guía Asimov a la ciencia; Understanding physics; Historia universal; Obras completas |
Feynman, Richard |
Lecciones de física; Lectures on computation |
Prince, Hal |
The Annotated Gödel |
Petzold, Charles |
Code; The Annotated Turing |
Norvig y Russell |
Artificial Intelligence |
Chollet, François |
Deep learning with Python |
MacKay, David |
Information Theory, Inference, and Learning Algorithms |
Olah, Christopher |
|
Tao, Terence |
|
Ciechanowski, Bartosz |
|
Eater, Ben |
|
Sapolsky, Robert |
|
Menger, Carl |
Principios de economía |
Schumpeter, Joseph |
Historia del análisis económico |
Máynez, Eduardo |
Introducción al estudio del Derecho |
Platón |
Diálogos |
Wilde, Oscar |
Obras completas |
Borges, Jorge Luis |
Obras completas |
Thiel, Peter |
Zero to one |
Bueno, Gustavo |
Teoría del cierre categorial |
Referencias#
Yoshua Bengio, Réjean Ducharme, and Pascal Vincent. A neural probabilistic language model. In T. Leen, T. Dietterich, and V. Tresp, editors, Advances in Neural Information Processing Systems, volume 13. MIT Press, 2000. URL: https://www.jmlr.org/papers/volume3/bengio03a/bengio03a.pdf.
Laura E. Herrera Castillo. El concepto leibniziano matemático de función en 1673. Cultura, 2013. URL: http://journals.openedition.org/cultura/1998, doi:10.4000/cultura.1998.
Andrej Karpathy. Neural networks: zero to hero. 2022. YouTube video series. URL: https://www.youtube.com/playlist?list=PLAqhIrjkxbuWI23v9cThsA9GvCAUhRvKZ.
Andrej Karpathy. Hacker's guide to neural networks. circa 2014. Blog post. URL: https://karpathy.github.io/neuralnets.
Yuxi Liu. The backstory of backpropagation. 12 2023. Blog post, Last modified: 2024-11-22. URL: https://yuxi-liu-wired.github.io/essays/posts/backstory-of-backpropagation.
Volker Nannen. A short introduction to kolmogorov complexity. 2010. URL: https://arxiv.org/abs/1005.2400, arXiv:1005.2400.
Jürgen Schmidhuber. Driven by compression progress: a simple principle explains essential aspects of subjective beauty, novelty, surprise, interestingness, attention, curiosity, creativity, art, science, music, jokes. 2009. URL: https://arxiv.org/abs/0812.4360, arXiv:0812.4360.
Jürgen Schmidhuber. Annotated history of modern ai and deep learning. 2022. URL: https://arxiv.org/abs/2212.11279, arXiv:2212.11279.
C. J. Scriba. The inverse method of tangents: a dialogue between leibniz and newton (1675-1677). Archive for History of Exact Sciences, 2(2):113–137, 1964. URL: http://www.jstor.org/stable/41133244.
Claude Shannon. Prediction and entropy of printed english. Bell System Technical Journal, 30(1):50–64, 1950. URL: https://archive.org/details/bstj30-1-50.
Ray Solomonoff. The application of algorithmic probability to problems in artificial intelligence. In M. Kochen and H. M. Hastings, editors, Advances in Cognitive Science, AAAS Selected Symposia Series, pages 210–227. AAAS, Washington, D.C., 1988. URL: https://raysolomonoff.com/publications/86.pdf.
Elena Voita. Nlp course for you. 2020. URL: https://lena-voita.github.io/nlp_course.html.
Y. Wang, R. Wang, and X. Xu. Neural energy supply-consumption properties based on hodgkin-huxley model. Neural Plasticity, 2017:6207141, 2017. Epub 2017 Feb 16, PMID: 28316842, PMCID: PMC5337805. URL: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5337805/, doi:10.1155/2017/6207141.
Andrew Wood. Artificial neural networks: activation functions, loss functions and their gradients. 2023. Blog post, Chapters 1.b and 1.c. URL: https://aew61.github.io/blog/artificial_neural_networks/1_background/1.b_activation_functions_and_derivatives.html.
Aston Zhang, Zachary C. Lipton, Mu Li, and Alexander J. Smola. Dive into Deep Learning. Cambridge University Press, 2023. URL: https://D2L.ai.