Locura de marzo, revisitada: El modelo de IA lo hizo bien. Pero las cosas locas siguen sucediendo.
(NOTA: Este artículo es parte de una serie en curso que documenta un experimento con el uso de IA para llenar los brackets de la NCAA y ver cómo se compara con años de experiencia humana. El artículo original es el siguiente.)
Hace una semana, escribí sobre entrar en una piscina de torneos de la NCAA con un proceso más disciplinado de lo que suelo usar.
En lugar de confiar en mascotas, vibras o cualquier equipo que pareciera genial el sábado por la tarde, traté de pensar en el bracket de la manera en que lo haría un inversor o analista: separar la previsión bruta del valor esperado, construir un bracket en torno a la mayor probabilidad de éxito, construir otro en torno a la dinámica de la piscina y tomar decisiones con al menos cierta conciencia de la incertidumbre.
Ese proceso produjo dos brackets. Uno fue el bracket “más probable”, diseñado para maximizar las probabilidades de un buen puntaje si el torneo seguía un camino mayormente racional. El otro fue un bracket de EV para una piscina de aproximadamente 70 entradas — no un arriesgado contracorriente, sino algo diseñado para ganar un concurso real en lugar de simplemente parecer sensato.
Entonces, ¿cómo resultó eso?
Bastante bien, de hecho. Solo que no perfectamente.
El modelo acertó 13 de los 16 equipos de la Sweet 16, lo cual es objetivamente fuerte en un torneo diseñado para castigar la confianza y recompensar el caos. La arquitectura general de la previsión se mantuvo. Identificó a la mayoría de los verdaderos pesos pesados. Estuvo en la dirección correcta sobre los equipos más propensos a sobrevivir el primer fin de semana. Se entiende generalmente que la forma del campo.
Pero como suele suceder en marzo, también encontró los puntos débiles.
NCAA
Las fallas más obvias fueron Ohio State, Wisconsin y Florida. Ohio State perdió un partido 66–64 contra TCU en una bandeja tardía. Wisconsin cayó 83–82 ante No. 12 High Point. Florida, el campeón nacional defensor y un sembrado No. 1, perdió 73–72 contra Iowa en un tiro de tres puntos decisivo en los segundos finales. Esos no fueron colapsos lentos y obvios. Fueron pérdidas de una posesión, decididas en los momentos finales, exactamente el tipo de resultados que te recuerdan que ningún modelo de torneo opera en un laboratorio.
Eso deja dos posibles interpretaciones.
Una es que el modelo estaba equivocado.
La otra es que el modelo estaba mayormente correcto, pero el baloncesto de eliminación directa es un entorno terrible para la certeza.
La respuesta, como suele ser, es ambas.
La buena noticia es que acertar 13 de 16 equipos de la Sweet 16 sugiere que el marco básico fue útil. No fue aleatorio. No fue decorativo. No fue solo usar palabras más elegantes para llegar a las mismas conjeturas intuitivas que todos los demás hacen. A nivel de identificación de calidad, funcionó.
La noticia menos reconfortante es que las fallas también fueron informativas.
Mirando hacia atrás, el proceso todavía se inclinó un poco demasiado hacia “el mejor equipo generalmente avanza”. Eso es a menudo cierto a lo largo de una temporada. Es menos cierto durante 40 minutos en un gimnasio neutral, especialmente cuando el desvalido puede crear volatilidad. La pérdida de Wisconsin es el ejemplo más claro. Un modelo de sorpresas más fuerte no necesariamente habría elegido a High Point para ganar, pero probablemente habría tratado a Wisconsin como más frágil de lo que lo hice: más susceptible al tipo de juego donde un desvalido se calienta desde la línea de tres, estira al favorito y convierte los últimos dos minutos en un lanzamiento de moneda.
La pérdida de Florida dice algo similar a un nivel más alto. Un sembrado No. 1 nunca se supone que sea “probable” que pierda temprano, pero hay una diferencia entre ser fuerte y ser invulnerable. El modelo tuvo razón al respetar a Florida. Probablemente estuvo equivocado al tratar a Florida como seguro.
NCAA
Esa distinción importa si estás tratando de ganar una piscina en lugar de simplemente defender tu dignidad.
Aquí es donde el ejercicio se vuelve interesante. En los mercados, en la inversión y en las piscinas de brackets, hay una gran diferencia entre estar ampliamente correcto y estar correctamente posicionado. Una previsión puede ser inteligente y aún así no capturar dónde reside la verdadera fragilidad. El torneo no otorga puntos de estilo por tener el mejor marco si aún subestimas la posibilidad de que un desvalido activo comience a encestar.
Entonces, ¿qué cambiaría?
No la idea central. Todavía creo que la forma correcta de abordar un bracket es separar la previsión de mayor probabilidad de la estrategia de valor esperado. La mayoría de las personas mezclan esas sin darse cuenta. Eligen un campeón que creen que puede ganar, pero luego hacen algunas selecciones arbitrarias de sorpresas para “darle emoción”, que es realmente solo otra forma de admitir que no tienen un proceso coherente.
Lo que mejoraría es la capa de volatilidad.
Una mejor versión de este enfoque prestaría más atención a qué favoritos son genuinamente sólidos y cuáles simplemente parecen fuertes en una hoja de cálculo. Mediría de manera más explícita la varianza de tres puntos, el riesgo de pérdidas de balón, problemas de faltas, dependencia de un solo anotador y con qué frecuencia los resultados de un equipo oscilan salvajemente de un juego a otro. Aún respetaría a los sembrados superiores. Simplemente sería más sospechoso de ellos.
Eso importa aún más ahora porque, por supuesto, los brackets originales están bloqueados.
En este punto, nadie puede afirmar que “habría tenido a Iowa” a menos que realmente tuviera a Iowa. Esa es parte de la belleza y la crueldad de todo el asunto. Una vez que comienzan los juegos, tu brillante marco se convierte en un documento histórico.
Pero eso no significa que el proceso deje de ser útil.
Por un lado, puede haber piscinas de segunda oportunidad. Muchos concursos se reinician en la Sweet 16 o en la Final Four, lo cual es realmente un regalo para cualquiera que aprecie el proceso. Una piscina de segunda oportunidad elimina el teatro de pretender que sabemos todo de antemano. Ahora tenemos nueva información, un campo más pequeño y una nueva oportunidad para separar los equipos verdaderamente fuertes de los que simplemente sobreviven.
Más importante aún, el ejercicio aún ofrece la lección principal que esperaba explorar en esta serie: la previsión disciplinada no se trata de eliminar la incertidumbre. Se trata de hacer que la incertidumbre sea legible.
El modelo funcionó bien. Marzo todavía tenía otras ideas.
Eso no es un fracaso. Es el punto.
Y si hay una piscina de segunda oportunidad, volveré a participar — más viejo, más sabio y ligeramente menos dispuesto a confiar en un favorito vulnerable solo porque su sembrado dice que debería.
Otros artículos
Locura de marzo, revisitada: El modelo de IA lo hizo bien. Pero las cosas locas siguen sucediendo.
(NOTA: Este artículo es parte de una serie en curso que documenta un experimento con el uso de IA para llenar los brackets de la NCAA y ver cómo se compara con años de experiencia humana. El artículo original es el siguiente.) Hace una semana, escribí sobre participar en una piscina de torneos de la NCAA con un proceso más disciplinado de lo que suelo usar. Videos recomendados […]
