La regulación de la Inteligencia Artificial

La irrupción de la Inteligencia Artificial (AI, por sus siglas en inglés) ha originado, como suele suceder con las innovaciones, una línea divisoria. A un lado de esa línea divisoria se encuentran los que Umberto Eco llamó, con acierto, “apocalípticos”, es decir, los que ven en la AI un enemigo temible de la humanidad que puede acabar desnaturalizándola, esclavizándola o incluso aniquilándola. Al otro lado están los que Eco llamó “integrados”, para quienes mejorará las condiciones de vida de los humanos permitiendo enormes avances en lo que de verdad nos importa como la salud, la educación o la organización y funcionamiento de la democracia.

Probablemente tengan tanta razón unos como otros. Probablemente las cábalas sobre la AI constituyen un magnífico test de personalidad del cabalista en cuestión. Proyectamos sobre la AI, como en el de Rorschach, nuestros miedos, inseguridades, aspiraciones y deseos. Pero la realidad va por otro lado. Es necesario que pensemos qué uso le queremos dar a una herramienta que se anuncia tan poderosa. Vale más anticiparse a las consecuencias que padecerlas por falta de previsión y de reflexión, y hay que estar atentos a la realidad para no pecar de ingenuos. Hasta ahora, Chat GPT parecía una creación altruista. Pero las cosas han cambiado. Consciente del enorme potencial de ganancias que puede generar, Open AI, la creadora de Chat GPT ha empezado a recaudar fondos para convertir en lucrativo su invento.

La propuesta de Open AI ha conseguido 6.000 millones de dólares en un tiempo récord. Entre los aportadores hay fondos de inversión como Thrive Capital o MGX, controlada por los Emiratos Árabes Unidos, o tecnológicas como como Microsoft o Nvidia. Open AI ha declarado que estas inversiones servirán para potenciar una empresa que se empeñará en lograr mejoras en salud y educación contribuyendo así al bien común. La propia naturaleza de los fondos de inversión es obtener alta y rápida rentabilidad para el capital que han aportado y las tecnológicas persiguen fines parecidos, nada filantrópicos. Eso no las convierte automáticamente en demonios a los que haya que combatir. Sin embargo, no es muy difícil adivinar por lo que se decantarán cuando se presente la disyuntiva entre el beneficio propio y el bien común. Por eso no se puede dejar la creación de un código deontológico relativo al uso de la AI en manos de corporaciones que buscan ante todo la rentabilidad.

Por otra parte, sabemos cómo se las gastan estas grandes empresas respecto al pago de impuestos, así como que no dudan en intentar torcer el brazo de los Estados que se les enfrentan exigiéndoles cumplir las leyes, por ejemplo, las que combaten la formación de monopolios.

Además, sabemos que la tendencia de las oligarquías mundiales es a concentrar más y más dinero y, por tanto, poder, lo que hace cada vez más difícil luchar contra ellas. Tampoco es que la mayoría de los gobiernos se impliquen con convencimiento en la mejora del bien común, sino que más bien desarrollan estrategias conducentes a perpetuarse en el poder. ¿Significa esto que no hay nada que hacer y que la AI será utilizada por los poderosos únicamente para acrecentar su poder? No, en la medida que los ciudadanos tomemos conciencia de que los gobiernos solo se deciden a enfrentarse a las oligarquías económicas cuando ven peligrar el voto ciudadano. Urge, pues, crear foros de debate serios y rigurosos sobre AI que, sabiendo cuál es la realidad de las empresas que están invirtiendo en ella y pretenden controlarla, vayan contribuyendo a establecer límites al uso de la AI y forzando a los gobiernos a plantarse frente a los que, si pueden, eludirán cualquier regulación.

Artículo aparecido en:
La Opinión de Murcia

Fecha publicación:
10/6/2024


Imprimir

 

Volver a página anterior