المساعد الشخصي الرقمي

مشاهدة النسخة كاملة : La inteligencia artificial no necesita parar, pero s? regulaci?n


الريــم
04-07-2023, 11:52 AM
"La inteligencia artificial (IA) avanzada podr?a representar un cambio profundo en la historia de la vida en la tierra, y deber?a planificarse y gestionarse con el cuidado y los recursos correspondientes". Es uno de los argumentos que esgrimen un grupo de empresarios del sector tecnol?gico, expertos y pol?ticos para solicitar que se suspendan durante seis meses los experimentos con inteligencia artificial (IA) m?s potentes. En tono apocal?ptico, sostienen en su misiva, publicada por el organismo sin ?nimo de lucro 'Future of Life Institute', que “los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez m?s poderosas”.

El primer firmante es el inform?tico canadiense Yoshua Bengio, uno de los pioneros en el avance del aprendizaje profundo, la tecnolog?a en la que se basan sistemas como ChatGPT. Adem?s de Elon Musk, director general de Tesla, Twitter y SpaceX, también se encuentra entre los firmantes Steve Wozniak, cofundador de Apple; el intelectual Yuval Noah Harari o el pol?tico Andrew Yang, candidato presidencial dem?crata de Estados Unidos en 2020. También han firmado los cofundadores de plataformas como Skype, Pinterest o Ripple.

"Comparto el sentido de la carta, lo que no entiendo es lo de la moratoria de seis meses, porque me parece que es pensamiento ilusorio", afirma Senén Barro, doctor en F?sica, catedr?tico de Ciencias de la Computaci?n e Inteligencia Artificial y director cient?fico del CiTIUS (Centro Singular de Investigaci?n en Tecnolog?as Inteligentes de la Universidad de Santiago de Compostela-USC). Tampoco comparte "el tono de alarmismo que tiene la carta, que se ha amplificado mucho en los medios de comunicaci?n, pero s? que tiene cierto tono de preocupaci?n como si estuviera cercana una IA que se nos pudiera escapar a nuestro control", subraya.

"Yo soy de los que cree que llegar? un d?a en el que tendremos una IA de prop?sito general, no que en parcelas o actividades puntuales nos supere a nosotros, porque eso ya ocurre, sino que de modo general podamos decir que es una inteligencia que nos supera o nos iguala al menos. Creo que eso ser? posible alg?n d?a, pero hoy ni lo es, ni est? cerca; adem?s, no sabemos qué pasos dar ni en qué direcci?n para eso".

"Ponerse ahora a especular en ese sentido y a alarmarse no tiene objeto", afirma al tiempo que a?ade que "yo s? que creo que hay que preocuparse por la inteligencia artificial, al menos ocuparse de ella, porque es el conjunto de tecnolog?as potencialmente m?s transformadoras de nuestra vida, de nuestra econom?a, empleo, educaci?n, salud..., que nunca hemos tenido y estamos empezando, como quien dice. Ya estamos viendo que cada vez hay nuevos avances, nuevas aplicaciones, cosas que nos sorprenden incluso a los que estamos trabajando en esto, por lo tanto, claro que hay que ocuparse de esto y regular los usos de la inteligencia artificial, claro que hay que tratar de anticiparse a los posibles malos usos o incluso errores que podamos cometer en seg?n qué ?mbitos de aplicaci?n".

"Lo que realmente me preocupa es que lo gobiernos pierdan el control frente a las grandes corporaciones"

En la misiva, los firmantes hacen un "llamamiento a todos los laboratorios de IA" para que paren de inmediato el entrenamiento de los sistemas de IA m?s potentes que GPT-4", pidiendo incluso la intervenci?n de los gobiernos para imponerla en caso de que las partes implicadas se nieguen a la suspensi?n temporal de las investigaciones.

En referencia a ChatGPT, la catedr?tica de Ciencias de la Computaci?n de la Universidad de A Coru?a, Amparo Alonso, destaca que "la tecnolog?a casi siempre va por delante de la legislaci?n y esto plantea una serie de situaciones como, por ejemplo, en cuanto al uso masivo del ChatGPT-3, que lo ha usado todo el mundo que conozco, para intentar que sea un modelo m?s transparente, menos sesgado y que no tenga problemas de privacidad o de seguridad", indica.

"Puede ser una herramienta de uso muy positivo", prosigue, "porque puede ayudarte a redactar mejor un texto o a buscar informaci?n sobre algo que puedas usar para inspirarte, el problema es el mal uso. Hay que filtrar a los usuarios, también las respuestas, y también legislar de alguna manera el tema de la recogida y conservaci?n de datos. Si hay, adem?s, versiones de pago y esos datos no se protegen, es un problema claro", advierte.

Recientemente, OpenAI, creadora de ChatGPT, confirmaba que su herramienta hab?a sufrido su primer gran problema de seguridad al quedar expuestos datos privados de algunos usuarios. De hecho, la pasada semana Italia bloque? el acceso a ChatGPT y abri? una investigaci?n contra el popular chatbot por una presunta violaci?n de las normas de recopilaci?n de datos.

Alonso asegura que "tanto en Estados Unidos como Europa tienen en marcha una propuesta de regulaci?n ética de la IA. En Europa, por lo menos, se pretende que esto pueda empezar en 2024, de ah? que tengamos AESIA en A Coru?a, porque es la agencia que se va a ocupar de desarrollar las gu?as y pruebas que deber?an hacerse a cualquier aplicaci?n de IA que esté disponible, a la venta, etc, en Europa; normalmente son aplicaciones que se llaman de "alto riesgo", no solo chatbots", subraya.

"Espa?a se ha propuesto como campo de pruebas para la UE para probar esta regulaci?n, de ah? que se haya creado AESIA, que ser? la primer agencia de toda Europa de supervisi?n ética de IA y todo este tema se deber?a llevar a cabo durante 2023 para que esta legislaci?n se pueda publicar en 2024, es la intenci?n al menos en Europa y, por tanto, hay una cierta moratoria para ver qué ocurre con otras aplicaciones que, en principio, podr?an no considerarse de alto riesgo y a las que también se les podr?an solicitar una serie de requisitos", destaca Alonso.

"En EEUU, donde también hay problemas con la versi?n 4 de ChatGPT, también hablan de riesgo para la privacidad y la seguridad p?blica; lider? también una propuesta de legislaci?n en octubre de 2022 e imagino que estar?n en temas del mismo tipo para que se suspendan estos experimentos hasta que se pueda ver qué tipo de riesgos potenciales pueden tener y ver c?mo planificar y gestionar el uso de esos sistemas y recursos".

"Europa y EEUU tienen en marcha propuestas de regulaci?n ética de la IA"

"Después hay otro tipo de cuestiones, como la guerra entre las empresas. Hace unos meses Google era el que llevaba la iniciativa y ahora mismo Microsoft se ha adelantado con su versi?n. Seguramente Google tendr? otra y lo que querr?n todas, y me parece l?gico, es que cumplan unos requisitos de privacidad y seguridad para todas", afirma.

En este punto, Barro también advierte sobre el hecho de que “el uso de las tecnolog?as genera, espont?neamente, aumentos en las brechas socioecon?micas” y apunta a lo que se llama com?nmente “desempleo tecnol?gico derivado de la automatizaci?n”. “Creo que habr?a que preocuparse ya de c?mo educar a nuestros j?venes para la sociedad de la inteligencia”, subraya. “Buena parte de la inteligencia que nos va a rodear es ya una inteligencia artificial, viene implantada en m?quinas, estamos viendo que se est?n desarrollando un conjunto de tecnolog?as y sus aplicaciones que, efectivamente, van a tener un impacto enorme en nuestras vidas, en nuestra calidad de vida, en nuestra educaci?n, en nuestro empleo, en la riqueza..., y queremos que se nos eduque, que se nos informe, queremos tomar decisi?n en las cosas que son m?s sensibles para nosotros, y esta es la parte que yo firmar?a de una carta as?; pero no dir?a que durante seis meses tenemos que parar, porque eso me parece un brindis al sol. ?Quién va a parar?, ?quién les va a obligar?, ?para qué?, ?cu?l es el resultado de esos seis meses?”, se pregunta.

"De los pa?ses m?s desarrollados en IA, el que tiene un control directo sobre la actividad de sus empresas y sus centros de investigaci?n y universidades es China, y es la que menos lo va a hacer, tiene una llave todopoderosa; pero EEUU no podr?a parar la actividad de sus empresas, ni el desarrollo de nuevos modelos de lenguaje, ni seg?n qué aplicaciones, y Europa tampoco", prosigue.

"Todos los pa?ses que sean democr?ticos y respeten los derechos humanos y se comprometan con sus ciudadanos tienen que estar pensando ya muy seriamente c?mo regular los usos de la IA y c?mo invertir dinero p?blico para que no quede en manos de las grandes corporaciones, que es lo que est? sucediendo ahora", sostiene el catedr?tico.

"Se est? haciendo mucha insistencia en la ética de la IA y me parece imprescindible porque las tecnolog?as de IA nos enfrentan a cosas nuevas, a dilemas o circunstancias que antes no se hab?an producido en nuestra vida ordinaria o en nuestro entorno profesional, y sirve para ir tomando conciencia, para ir orientando el desarrollo legislativo y normativo, pero nunca puede sustituirlo". Realmente, el control que a Barro le preocupa que se pierda es el del gobierno frente a las grandes corporaciones: "De lo que debe ser y no, de d?nde se debe investigar y no, de hasta d?nde podemos llegar y d?nde tenemos que pararnos".



"La inteligencia artificial es un limbo jur?dico"

"Sin regulaci?n me parece mal porque es un peligro", se?ala el letrado Daniel Garc?a, que presenta un trabajo sobre ella




"A d?a de hoy no hay normativa. La inteligencia artificial (IA) es un limbo jur?dico. Es un jard?n sin flores en el que cualquiera puede hacer lo que le apetezca", lamenta el letrado pontevedrés Daniel Garc?a, quien acaba de presentar su trabajo fin de m?ster sobre esta tecnolog?a, los 'smart contracts' y la importancia de los mismos para el trabajo de abogados y operadores jur?dicos.

En “Inteligencias Artificiales y smart contracts, ?condenados a entenderse?”, que present? en la Universidad Camilo José Cela, repasa la historia y desarrollo de la inteligencia artificial, el concepto de IA desde el punto de vista jur?dico, desde las instituciones comunitarias, el anteproyecto para su reglamento fij?ndose en la clasificaci?n de sistemas de IA de alto riesgo o incluso prohibidas.

"Critico –a?ade Garc?a– que no hay suficiente regulaci?n. Hay un intento por la UE pero no se dan puesto de acuerdo". Desde su punto de vista “sin regulaci?n me parece mal porque es un peligro. La gente har? lo que le apetezca sin tener en cuenta las peculiaridades de IA".

Pararla tampoco parece ya una alternativa, seg?n su punto de vista. "Una IA sin regulaci?n es peligrosa. Si se frena, la tecnolog?a no se para sino que busca otros subterfugios” que entonces s? escapar?an al control y regulaci?n", matiza.

Con el fin de entender la importancia del asunto, plantea una cuesti?n directa y sencilla: "Qué pasar? el d?a de ma?ana cuando a un influencer le suplanten la identidad, la cara y la voz hasta el punto de no hacerlo reconocible diciendo en una entrevista algo controvertido. ?Qué mecanismos va a haber para saber que es un 'fake'?".

Imaginemos que lo que comenta el 'fake' es susceptible incluso de ser penado legalmente. ?C?mo se conseguir? demostrar que él no ha dicho eso y ocurrir? algo y qué a la persona o entidad que utiliz? la tecnolog?a para suplantarlo? ?O solo recaer? la responsabilidad en la plataforma?

No son las ?nicas preguntas, Daniel Garc?a también nos pide que nos paremos a reflexionar sobre “?Qué va a ocurrir con las obras realizadas por inteligencia Articial??Va a haber derechos de autor o no?”.

En estos tiempos de guerra en Europa, otro punto importante es si debe estar prohibida como arma. "La ONU_considera que la IA debe estar prohibida para el uso militar. Rompe la barrera psicol?gica de apretar el gatillo o no. Si lo hace una m?quina, ?qué ocurre?", plantea este joven que trabaja para el despacho Lois Carrera Abogados.

Para ello, pide recordar el incidente en la guerra entre Ucrania y Rusia cuando cayeron proyectiles en territorio polaco: "?Qué hubiese ocurrido si la defensa de Polonia estuviese activada para responder autom?ticamente si cae un misil?".

Garc?a no es un apocal?ptico. Recuerda que "se asemeja a cuando Internet naci?. La gente le ten?a miedo porque no hab?a regulaci?n. La inteligencia artificial de aqu? a diez a?os estar? m?s desarrollada, en las actividades del d?a a d?a".






أكثر... (https://www.sport.es/es/noticias/sociedad/inteligencia-artificial-necesita-parar-regulacion-85731896)

منتديات - منتدى - شدات ببجي - شحن شدات ببجي - شحن ببجي - متجر ببجي - متجر شدات ببجي - شعبية ببجي - شدات - شحن روبلوكس - شحن يلا لودو - اقساط - شدات ببجي اقساط - شدات ببجي - شدات ببجي تمارا - شدات ببجي تابي - شحن يلا لودو - شحن يلا لودو اقساط - تقسيط بطاقات سوا - موبايلي اقساط - زين اقساط - ايتونز امريكي اقساط - ايتونز سعودي اقساط - شعبية ببجي - متجر اقساط - شدات ببجي - حسابات ببجي - شدات ببجي - شدات ببجي اقساط - شدات  ببجي - متجر busd - نون - نون - نون السعودية - نون - شدات ببجي - سيارات اطفال - تصميم متجر الكتروني - تصميم متجر سلة - تصميم شعارات - تصميم متاجر سلةوكالة تسويق - مصمم جرافيك - موشن جرافيك - - تصميم موقع سلة - تصميم متجر في سلة - تصميم متجر الكتروني سلة - افضل مصمم متجر الكتروني - تصميم متجر سلة - تصميم متجر سلة احترافي - تصميم متجر سلة - مصمم متاجر سلة - مصمم موشن جرافيك - مصمم موشن جرافيك بالرياض - افضل شركة تصميم متجر الكتروني  - تصميم متجر الكتروني احترافي - تصميم css سلة - متجر نوف ديزاين - شركات موشن جرافيك - افضل موقع لتصميم متجر الكتروني - تصميم شعار متجر سلة - تصميم متجر الكتروني متكامل - شركة تصميم متاجر الكترونية - تصميم المتجر سلة - تصميم متجر الكتروني - ماهو تصميم الجرافيك - تصميم