Los científicos utilizan ahora la Inteligencia Artificial (IA) para ayudar a los humanos a entender lo que los perros intentan comunicar con sus ladridos. Cuando escribí mi nuevo análisis de política pública, «La regulación de la inteligencia artificial amenaza la libertad de expresión«, este no era exactamente el tipo de expresión que tenía en mente, pero no deja de ser una prueba de lo que digo.
El vertiginoso sector de la IA está atrayendo tanta atención y dinero por su capacidad de cambiar radicalmente la forma en que accedemos a la información y nos comunicamos, al parecer incluso con nuestros mejores amigos de cuatro patas. La capacidad de la IA generativa para crear texto, imágenes y audio de forma que imiten la inteligencia humana, y para hacerlo rápidamente y a un costo relativamente bajo, va a cambiar la forma en que interactuamos entre nosotros y con la información de nuestro mundo.
Dado este enorme potencial expresivo, deberían preocuparnos los intentos de restringir el discurso que puede producir la IA. Por supuesto, hay algunos tipos de discurso objetivamente peligrosos que tal vez queramos impedir que la IA produzca, como el desarrollo de malware o instrucciones para fabricar armas químicas. Pero limitar el discurso de la IA porque no es lo suficientemente diverso o porque algunos grupos lo considerarían ofensivo no es saludable para la cultura de la libertad de expresión.
Afortunadamente, es probable que el mercado responda a la demanda de todo tipo de discursos y puntos de vista proporcionando una gran cantidad de herramientas de IA personalizadas… a menos que el gobierno se interponga primero. Mi nuevo artículo describe dos formas en que la regulación gubernamental perjudicará la libertad de expresión.
En primer lugar, al dificultar en general la entrada de nuevas empresas en el mercado, las regulaciones asfixiantes consolidarán el dominio de las actuales grandes empresas tecnológicas sobre la IA. Los consumidores no tendrán más opciones ni innovaciones que satisfagan sus necesidades y puntos de vista.
En segundo lugar, la regulación gubernamental podría dirigirse explícitamente a ciertos tipos de productos o discursos como «dañinos». Cuando se habla de daños potenciales de la IA, los responsables políticos podrían estar preocupados por el impacto de la IA en el empleo o el futuro distópico de las IA asesinas como en Terminator o Matrix. Pero otro daño común que muchas élites y gobiernos temen es la capacidad de la IA para difundir ciertas perspectivas que se consideran desinformación o incitación al odio. Por ello, los gobiernos también pueden intentar sofocar el potencial expresivo de la IA restringiendo el discurso que no les gusta.
En lugar de restricciones, regulaciones y censura, mi documento propone un enfoque suave de la regulación de la IA. Los organismos gubernamentales y los tribunales ya están aplicando las normas y autoridades existentes, así que no estamos en el Salvaje Oeste. En algunos casos, como en la Unión Europea, las leyes vigentes son tan onerosas que ya están paralizando la innovación, lo que indica la necesidad de menos normas en lugar de más. Junto con otras formas de normas suaves, como el desarrollo de normas sociales y mejores prácticas y la mejora de la alfabetización en IA, los responsables políticos pueden incentivar una mayor innovación en IA y, por tanto, una mayor expresión.
Tanto si utiliza la IA para entender mejor a su perro como para comunicarse mejor con sus conciudadanos estadounidenses, las posibilidades expresivas son inmensas, siempre y cuando adoptemos un enfoque de la IA que dé prioridad a la innovación.
* David Inserra Es investigador sobre libertad de expresión y tecnología.
Fuente: El Cato Institute