“Creo que hay algunas posibilidades de que (la IA) acabe con la humanidad. Coincido con Geoff Hinton en que debe ser sobre el 10 o 20%, o una cifra similar”, consideró el director de Tesla y X, Elon Musk.

Según reveló Business Insider, Musk afirmó que el riesgo de que la IA destruya a la humanidad es de entre el 10 al 20% durante el “Great AI Debate”, un seminario de cuatro días celebrado a principios de marzo. De todos modos, ha declarado que los posibles beneficios compensan los escenarios negativos.

En ningún momento ha revelado cómo ha realizado los cálculos; sin embargo, el cálculo p(doom) no necesita ningún método de averiguación determinado. Se trata de una variable informal y sin base científica que busca explicar la posibilidad de que la humanidad sea aniquilada por un invento o hallazgo. P = posibilites; doom = condena.

Debido a su informalidad, resulta difícil establecer una cifra a partir de la cual la extinción supone casi una certeza. Pese a ello, las predicciones suelen ir desde el 5% al 50%, siendo la primera algo probable de que la IA acabe con la existencia humana tal y como se la conoce actualmente, y la última, un riesgo exageradamente alto.

Una gran cantidad de científicos y expertos en la materia han declarado que se trata de una posibilidad real; sin embargo, otros han indicado lo contrario. Uno de los últimos es Michio Kaku, conocido como “el padrino de la IA”, quien ha afirmado que la IA está sobrevalorada, en especial ChatGPT, que para él no es más que una “grabadora glorificada”.

EN ESTA NOTA Elon Musk IA

Leé más notas de La Opinión Austral

Ver comentarios