Dante Noguez — Dantis Elementorum

Dante Noguez — Dantis Elementorum#

Intro#

El título de este blog está inspirado en los Elementos de Euclides: mi intención es escribir, «según el orden geométrico», acerca de los elementos constituyentes de aquellas disciplinas en las que estoy interesado.

Sobre mí#

Me interesan las matemáticas en general y el machine learning, las ciencias computacionales y la teoría de la información en particular. También la literatura esteticista, la música afroamericana, el derecho constitucional, la biología conductual, la economía austríaca, el materialismo filosófico, la física teórica, las artes marciales mixtas et quid non.

Résumé#

Ingeniero de software especializado en desarrollo backend y machine learning. Actualmente, soy desarrollador sénior de inteligencia artificial en Kavak. Antes, fundé una empresa de comercio electrónico y trabajé en despachos legales como abogado. He escrito sobre literatura, filosofía, derecho, política y economía para revistas, editoriales, periódicos e institutos de investigación.

\(\rightarrow\) dante@odyseus.ai

Proyectos#

  • Odyseus, donde asesoro a startups enfocadas en IA.

  • Oh tiempo tus pirámides, un libro sobre Jorge Luis Borges.

  • A Speech Odyssey, un libro en progreso sobre las distintas capas de abstracción que describen una llamada telefónica automatizada[1].

Música#

Mis álbumes más escuchados del último mes (febrero):

_images/feb-25.jpeg

Fig. 1 Imagen generada con tapmusic. Los meses anteriores se pueden consultar aquí.#

eSports#

Un resumen de mis rangos y puntajes en distintos ciberdeportes:

Ciberdeporte

Categoría

Rango / puntaje

Ajedrez

Bullet

1239

Rapid

1306

Blitz

1342

Fischer-Random-Chess

1429

Puzzles

1581

Puzzle Rush

30

Halo

Halo 3

50 (MLG, Dobles, Slayer, Snipers, Lone wolves)

Halo 5

Campeón 28 (Arena), Ónice (Slayer, FFA, SWAT, Dobles)

Halo Infinite

Ónice (Arena)

Call of Duty

Warzone

Diamante 3 (Tríos)

Citas#

Si deseas citar el material de este blog, puedes utilizar el siguiente formato BibTeX:

@misc{DantisElementorum,
title={Dantis Elementorum},
author={Dante Noguez},
url={https://dantenoguez.com},
year={2022}
}

Bibliografía#

Autor

Obra

Euler, Leonhard

Elementos de álgebra

Epp, Susanna

Matemáticas discretas

Hewitt, Paul

Física conceptual

Cummings, Jay

Proofs; Real analysis

Aleksandrov, Kolmogorov y Lavrent’ev

Mathematics

Asimov, Isaac

Guía Asimov a la ciencia; Understanding physics; Historia universal; Obras completas

Feynman, Richard

Lecciones de física; Lectures on computation

Prince, Hal

The Annotated Gödel

Petzold, Charles

Code; The Annotated Turing

Norvig y Russell

Artificial Intelligence

Chollet, François

Deep learning with Python

MacKay, David

Information Theory, Inference, and Learning Algorithms

Olah, Christopher

Blog

Tao, Terence

What’s new blog

Ciechanowski, Bartosz

Blog

Eater, Ben

Blog

Sapolsky, Robert

Human behavioral biology

Menger, Carl

Principios de economía

Schumpeter, Joseph

Historia del análisis económico

Máynez, Eduardo

Introducción al estudio del Derecho

Platón

Diálogos

Wilde, Oscar

Obras completas

Borges, Jorge Luis

Obras completas

Thiel, Peter

Zero to one

Bueno, Gustavo

Teoría del cierre categorial

Referencias#

[BDV00]

Yoshua Bengio, Réjean Ducharme, and Pascal Vincent. A neural probabilistic language model. In T. Leen, T. Dietterich, and V. Tresp, editors, Advances in Neural Information Processing Systems, volume 13. MIT Press, 2000. URL: https://www.jmlr.org/papers/volume3/bengio03a/bengio03a.pdf.

[HC13]

Laura E. Herrera Castillo. El concepto leibniziano matemático de función en 1673. Cultura, 2013. URL: http://journals.openedition.org/cultura/1998, doi:10.4000/cultura.1998.

[Kar22]

Andrej Karpathy. Neural networks: zero to hero. 2022. YouTube video series. URL: https://www.youtube.com/playlist?list=PLAqhIrjkxbuWI23v9cThsA9GvCAUhRvKZ.

[Kar14]

Andrej Karpathy. Hacker's guide to neural networks. circa 2014. Blog post. URL: https://karpathy.github.io/neuralnets.

[Liu23]

Yuxi Liu. The backstory of backpropagation. 12 2023. Blog post, Last modified: 2024-11-22. URL: https://yuxi-liu-wired.github.io/essays/posts/backstory-of-backpropagation.

[Nan10]

Volker Nannen. A short introduction to kolmogorov complexity. 2010. URL: https://arxiv.org/abs/1005.2400, arXiv:1005.2400.

[Sch09]

Jürgen Schmidhuber. Driven by compression progress: a simple principle explains essential aspects of subjective beauty, novelty, surprise, interestingness, attention, curiosity, creativity, art, science, music, jokes. 2009. URL: https://arxiv.org/abs/0812.4360, arXiv:0812.4360.

[Sch22]

Jürgen Schmidhuber. Annotated history of modern ai and deep learning. 2022. URL: https://arxiv.org/abs/2212.11279, arXiv:2212.11279.

[Scr64]

C. J. Scriba. The inverse method of tangents: a dialogue between leibniz and newton (1675-1677). Archive for History of Exact Sciences, 2(2):113–137, 1964. URL: http://www.jstor.org/stable/41133244.

[Sha50]

Claude Shannon. Prediction and entropy of printed english. Bell System Technical Journal, 30(1):50–64, 1950. URL: https://archive.org/details/bstj30-1-50.

[Sol88]

Ray Solomonoff. The application of algorithmic probability to problems in artificial intelligence. In M. Kochen and H. M. Hastings, editors, Advances in Cognitive Science, AAAS Selected Symposia Series, pages 210–227. AAAS, Washington, D.C., 1988. URL: https://raysolomonoff.com/publications/86.pdf.

[Voi20]

Elena Voita. Nlp course for you. 2020. URL: https://lena-voita.github.io/nlp_course.html.

[WWX17]

Y. Wang, R. Wang, and X. Xu. Neural energy supply-consumption properties based on hodgkin-huxley model. Neural Plasticity, 2017:6207141, 2017. Epub 2017 Feb 16, PMID: 28316842, PMCID: PMC5337805. URL: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5337805/, doi:10.1155/2017/6207141.

[Woo23]

Andrew Wood. Artificial neural networks: activation functions, loss functions and their gradients. 2023. Blog post, Chapters 1.b and 1.c. URL: https://aew61.github.io/blog/artificial_neural_networks/1_background/1.b_activation_functions_and_derivatives.html.

[ZLLS23]

Aston Zhang, Zachary C. Lipton, Mu Li, and Alexander J. Smola. Dive into Deep Learning. Cambridge University Press, 2023. URL: https://D2L.ai.