Logo de Excélsior                                                        
Dinero

Urge evitar mal uso de la IA, señala Brian Patrick Green

El especialista afirmó que esta tecnología no debe pensarse sólo como una herramienta con algunos efectos graves, sino que debe buscarse una regulación mundial que garantice su buen uso

Paul Lara | 05-03-2024
Brian Patrick Green, director de Ética Tecnológica en el Centro Markkula de Ética Aplicada de la Universidad de Santa Clara en EU
Para el director de Ética Tecnológica en el Centro Markkula de Ética Aplicada de la Universidad de Santa Clara, hay riesgos que enfrentar. Foto: Santa Clara University

La inteligencia artificial (IA) no debe pensarse sólo como tecnología, sino como una herramienta que puede tener efectos secundarios graves en la sociedad, y el objetivo es garantizar su buen uso”, señala Brian Patrick Green, director de Ética Tecnológica en el Centro Markkula de Ética Aplicada de la Universidad de Santa Clara en EU, y quien forma parte de los investigadores en tres estudios de caso del Foro Económico Mundial sobre prácticas éticas en Microsoft, Salesforce e IBM, y ha trabajado con la Asociación para la IA, el Dicasterio para la Cultura y la Educación del Vaticano y con el gobierno de Estados Unidos en la discusión de la regulación de la IA.

Green, quien estuvo de visita en México en el evento Never Ending Evolution Artificial Intelligence, enfatiza en entrevista exclusiva con Excélsior que la regla ética es asegurarse realmente de que esta tecnología beneficie a la humanidad y no dañe a las personas. “Hay muchas maneras en que también podemos intentar hacer el bien, pero terminar sin hacerlo. Hay efectos secundarios, por ejemplo, en términos de sesgos o de degradación ambiental o en términos como desigualdad y desempleo y ese tipo de cosas que podrían provenir de la IA. Necesitamos pensar cómo la IA interactúa con la sociedad y cómo la sociedad puede asegurarse de que la utiliza de una manera que sea realmente útil para las personas”.

Para el experto en ética de la tecnología en las corporaciones, en la exploración y el uso del espacio, en la ética de la manipulación tecnológica de los humanos, la ética de la mitigación y adaptación hacia tecnologías emergentes riesgosas y varios aspectos del impacto de la tecnología e ingeniería en la vida humana y la sociedad, incluida la relación entre la tecnología y la religión (particularmente la Iglesia Católica), la falta de transparencia de cómo se usa y se entrena la IA en empresas como Open AI es un riesgo.

Creo que muchas de las empresas no están siendo transparentes. Estás absolutamente en lo correcto. He trabajado con algunas empresas donde nos han dejado entrar y nos han hablado sobre lo que están haciendo en cuanto a tecnología. Han tomado algunas de las herramientas que hemos desarrollado en el centro Markkula y las han incorporado a su tecnología en desarrollo y en sus organizaciones. Por eso existe el deseo entre muchas empresas de intentar hacer lo correcto y lo reconocen. Eso no sólo es bueno para los demás, lo es para el mundo y para ellos mismos porque, en última instancia, les evita problemas legales.

“Eso reduce, ya sabes, la mala prensa. Creo que son conscientes del valor de la ética, pero a veces hay preocupación por hablar de ello demasiado explícitamente. Les preocupa que incluso hablar de ello pueda dañar su reputación. Pero como todo el mundo está pensando en ello, ahora lo han reconocido. Quizás podamos ser más transparentes en lugar de intentar escondernos”.

Unidos es mejor

Green es enfático al confirmar que se debe trabajar conjuntamente entre gobiernos, empresas y universidades para ser éticos en la construcción de la IA, y evitar problemas futuros. “Tienes razón. Hay varias capas allí. Lo primero en lo que hay que pensar es en las personas que están desarrollando la IA, en las corporaciones tecnológicas, los ingenieros dentro de esa construcción dentro de la organización en la que se encuentran. Han sido capacitados en algún lugar, fueron a una universidad. Mientras estaban ahí, es de esperar que hayan aprendido algo sobre ética. Ese es el primer paso para introducirla ética en el sistema educativo.

Entonces los empleados que vayan a trabajar a estas empresas tendrán esa base ética sobre la que construir. El siguiente paso está realmente en la propia organización. ¿Puede la propia empresa reunir a sus ingenieros de una manera que realmente mantenga la ética en el centro de lo que piensan como organización? Eso requiere pensar en la cultura de la firma, requiere pensar en el producto y en el desarrollo, en el ciclo de vida. Todas las pequeñas piezas deben unirse en una empresa, porque puedes tener una organización formada por muchas personas buenas que aun así terminarán haciendo cosas malas. Entonces la estructura misma de la organización es muy importante.

Llegar al nivel gubernamental es entonces una especie de nivel superior y el gobierno tiene un papel importante en términos de establecer estándares y expectativas sobre cómo debería operar la tecnología en la sociedad. Por supuesto, las corporaciones tienen una especie de perspectiva enfocada, necesitan producir un producto que puedan vender y poder ganar dinero y seguir existiendo. Pero el papel del gobierno es en realidad mucho más amplio que eso, es garantizar que toda la sociedad funcione bien. Entonces, el gobierno debería mirar a las universidades, a los consumidores, a las empresas y asegurarse de que todas estas diferentes partes de la sociedad realmente puedan operar juntas para asegurarse de que la tecnología esté ayudando a las personas”, explica Green.

 

Aquí podrás acceder a noticias en tiempo real

Conoce lo más viral en Facebook Trending 

Lee a los columnistas de Excélsior Opinión

 

clm

 

Te recomendamos

Tags

Comparte en Redes Sociales