Las Big Tech quieren regular la IA. Pero están mintiendo sobre el porqué, asegura el experto Andrew Ng

  • El camino que están tomando algunos proyectos regulatorios "aplastaría la innovación" según el cofundador de Google Brain

  • Aún así, asegura, una regulación meditada es preferible a la ausencia de regulación

Ng
3 comentarios Facebook Twitter Flipboard E-mail

Andrew Ng no es un cualquiera. Este profesor de la Universidad de Stanford fue cofundador de Google Brain, científico gente en la división de IA de Baidu y el experto que lleva años defendiendo la idea de que la inteligencia artificial "es la nueva electricidad". Lo dijo mucho antes de que el fenómeno ChatGPT nos atrapara a todos, pero ahora ve un peligro en cómo las grandes tecnológicas están impulsando una regulación en este campo.

Las Big Tech quieren regular por algo. Según Ng, "la mala idea de que la IA pueda significar nuestra extinción" se está fusionado con "la mala idea de que una forma de hacer una IA más segura es imponer unos engorrosos requisitos para la concesión de licencias". Eso es lo que están apoyando empresas como OpenAI o Microsoft, pero para Andrew Ng esa forma de regular va a provocar que haya grandes ganadores y grandes perdedores en esa carrera.

Licenciar para controlar. En una entrevista en The Australian Financial Review, Ng explicaba que "cuando pones esas dos malas ideas juntas, obtienes la idea colosalmente estúpida de propuestas de regulación que intentarán obligar a licenciar la IA". Para él habrá una peligrosa consecuencia si se sigue ese camino.

"Aplastará la innovación". Ese tipo de regulación permitirá según este experto que las grandes empresas tecnológicas no tengan que competir con desarrollos en el mundo Open Source. La regulación, según él, "es un arma de los grupos de presión" que sería muy perjudicial para la comunidad Open Source.

Sam Altman y la regulación. El CEO de OpenAI lleva meses abogando por una regulación para el desarrollo de sistemas de IA, pero ya hablamos de cómo esa es una postura que responde a los intereses de dicha empresa. La UE, que avanza en su AI Act, precisamente ha caído en ese primer problema del Open Source.

Viejo alumno. Como explicaba Ng, Altman fue uno de sus estudiantes en Stanford y trabajó como becario en su departamento. "No quiero hablar sobre él específicamente, pero creo que a muchas grandes empresas les convendría no tener que competir con modelos lingüísticos de código abierto".

Hay que regular, pero de forma coherente. Este experto no está en contra de la regulación, pero está preocupado por la dirección que estas decisiones están tomando en varios países. Aún así, afirma, "una regulación meditada sería mucho mejor que la ausencia de regulación". Entre los temas a tratar estaría el de la transparencia de las empresas tecnológicas para poder evitar desastres por ejemplo en redes sociales.

Japón plantea una salida. Esta semana, no obstante, se impuesto una tercera vía: la propuesta de Japón para crear el "Proceso de Hiroshima sobre IA" se postula como una vía de regulación más laxa, pero suficientemente concreta para abordar diversos problemas. El proceso ha sido aceptado por el G7, un paso especialmente importante que alivia las tensiones que habían surgido entre la restrictiva regulación de la UE y las dudas de esa normativa en EEUU.

Imagen | NVIDIA Corporation

En Xataka | Esta es la razón por la que Google no lanzó su chatbot de IA antes que ChatGPT (según el exresponsable de producto de Google Brain)

Inicio