المساعد الشخصي الرقمي

مشاهدة النسخة كاملة : Gary Marcus: "La inteligencia artificial ser? usada para interferir en las elecciones


الريــم
10-10-2023, 09:00 AM
El pasado 16 de mayo, medio a?o después que estallase el fen?meno de ChatGPT, el Congreso de Estados Unidos celebr? una sesi?n para abordar una futura regulaci?n de la inteligencia artificial (IA). El acto reuni? a l?deres de la industria como Sam Altman, fundador de OpenAI, pero también a uno de los m?s prominentes cr?ticos (https://www.judiciary.senate.gov/imo/media/doc/2023-05-16%20-%20Testimony%20-%20Marcus.pdf) con el uso de esta tecnolog?a, el neurocient?fico cognitivo Gary Marcus.

El estadounidense de 53 a?os, profesor emérito de la Universidad de Nueva York, es una de las personalidades m?s influyentes en el campo de la IA. Tras m?s de dos décadas de investigaci?n, ha publicado obras clave, decenas de estudios cient?ficos y fund? dos empresas que vendi? a Uber.

M?s informaci?n (Auto)


http://placehold.it/175x100 T?tulo noticia (Auto)






Este lunes, Marcus ha asistido al Parlament de Catalunya para participar en la Conferencia EPTA (https://www.parlament.cat/pcat/epta-2023/ca/), un encuentro para debatir las oportunidades, retos y riesgos de la IA y c?mo abordarlas desde la pol?tica p?blica. EL PERI?DICO, del grupo Prensa Ibérica, ha podido charlar con él.

La llamamos IA, ?pero es realmente inteligencia?

Depende de c?mo se defina la inteligencia. Yo dir?a que consiste en ser capaz de resolver muchos tipos diferentes de problemas con flexibilidad. Las m?quinas son razonablemente buenas buscando informaci?n, pueden jugar muy bien al ajedrez y hacer matem?ticas mejor que las personas. Pero no entienden realmente c?mo funciona el mundo, no son muy l?gicas y cuando se enfrentan a algo nuevo a menudo se desmoronan. Est?n muy limitada.

El a?o pasado escribi? un 'paper (https://nautil.us/deep-learning-is-hitting-a-wall-238440/)' en el que dec?a que la IA est? estancada. ?Por qué no podemos confiar en los grandes modelos de lenguaje como ChatGPT?

Porque no tienen la capacidad de comprobar hechos. Uno de esos sistemas dijo que Elon Musk muri? en un accidente de coche. Para un humano eso es f?cil de demostrar que eso no es cierto, porque est? cada d?a en Twitter. No pueden razonar ni pensar, solo crean esa ilusi?n porque reproducen frases que otra gente ha dicho.

"ChatGPT no puede razonar ni pensar, solo crea esa ilusi?n porque reproduce frases de otra gente"







Como los loros (https://dl.acm.org/doi/10.1145/3442188.3445922)...

Es una comparaci?n aceptable, pero no perfecta. Los loros pueden aprender un poco de lenguaje y compararlo con los objetos del mundo que les rodea, as? como resolver ciertos problemas que nunca han visto antes. Los sistemas no.

ChatGPT y dem?s pueden responder informaci?n err?nea como si fuese cierta. ?Se agilizar? la desinformaci?n a gran escala?

M?s informaci?n (Auto)


http://placehold.it/175x100 T?tulo noticia (Auto)






La desinformaci?n es la mayor amenaza que plantea la IA. Estos sistemas frecuentemente se equivocan, pero nunca dudan y responden con absoluta confianza. Si no saben algo se lo inventan. El caso m?s famoso es cuando se invent? que un profesor de derecho hab?a cometido acoso sexual y se cit? como prueba un art?culo en 'The Washington Post' que no exist?a. As? se puede calumniar, difamar y destruir la reputaci?n de alguien de forma accidental.

Por otro lado, hay la desinformaci?n deliberada. Cuando comparec? ante el Congreso le ped? al sistema que se inventase una historia de c?mo los senadores de EEUU con los que me reun?a eran parte de una conspiraci?n con extraterrestres para aumentar el precio del combustible y que la humanidad nunca explore el universo. Cre? una narrativa completa, con citas inventadas de Musk y de un profesor de Yale que tampoco exist?a. A los desinformadores no les importa si sus bulos no son perfectos. Si solo un 20% se los cree eso puede dar una fuerza enorme a quienes quieran perturbar unas elecciones.

As?, supone una amenaza para los procesos democr?ticos

Mi preocupaci?n m?s inmediata es qué pasar? con las casi 70 elecciones que hay en 2024. Es muy probable que se creen v?deos falsos de Joe Biden cayendo por las escaleras o diciendo algo tonto para tratar de manipular las elecciones. Esto suceder? en muchas o en todas. Usar la IA no requiere de mucha experiencia, as? que se servir?n de ella para perturbar las elecciones.

Al generar informaci?n falsa pero cre?ble los modelos como ChatGPT est?n intoxicando la informaci?n que hay en los buscadores web. ?Ir? a m?s?

Este es un problema inmenso. Lo que deber?a preocupar a Google no es su futuro como motor de b?squeda, sino que la calidad de Internet disminuya. Y eso ya est? ocurriendo por m?ltiples razones. Una es que ChatGPT, Bard y otros a menudo se inventan cosas y esas falsedades se filtran e incorporan en otros sistemas. También hay gente usando la IA para crear libros y gu?as para ganar dinero. Cory Doctorow ha descrito esa pérdida de calidad de la informaci?n como 'Enshittification (https://www.wired.com/story/tiktok-platforms-cory-doctorow/)'. Este tipo de basura est? contaminando la red, y s?lo ir? a m?s.

?Se ha exagerado el potencial de ChatGPT?

Absolutamente. Fue una moda, su uso se catapult?, pero ahora ha disminuido y algunas empresas incluso lo han prohibido. Adem?s, la realidad es que no hacen ni de lejos tanto dinero como se cree. Se pensaba que las b?squedas basadas en IA ser?an el gran motor econ?mico, pero la gente se est? dando cuenta de que en realidad no funciona tan bien porque se inventa un mont?n de cosas.

Las compa??as han lanzado a la sociedad productos que cometen errores. ?Qué incentivos tienen para desarrollar sistemas en los que podamos confiar?

Por eso necesitamos que el gobierno intervenga. Las empresas se han dado cuenta de que b?sicamente tienen el poder de lanzar cualquier cosa, sin importar lo arriesgado que pueda ser. Eso es peligroso. No tenemos ning?n poder para evitar que lo hagan, aparte de algunas demandas a posteriori. Esa es la raz?n que me empuj? a trasladar mi carrera de la investigaci?n a la pol?tica, a educar a los gobiernos sobre qué podemos hacer. Si quieres desplegar algo a 100 millones de personas, antes tienes que demostrar que los beneficios superan a los riesgos.

Las empresas lanzan cualquier cosa al mercado, sin importar lo arriesgado que sea, y no tenemos ning?n poder para evitarlo.







Compa??as como OpenAI hablan de la Inteligencia Artificial General (IAG), la que iguala o excede el conocimiento humano. Esa idea del Terminator es ciencia-ficci?n, pero ?cu?n lejos estamos de ello?

M?s informaci?n (Auto)


http://placehold.it/175x100 T?tulo noticia (Auto)






Es poco probable que tengamos un escenario Terminator en el que las m?quinas por s? solas decidan tomar el control. No estoy seguro de que lo veamos, aunque es bueno que haya gente estudiando eso.

Creo que deber?amos estar m?s preocupados por los prejuicios que puede arrastrar la IA, por los errores que comete o por como los malos actores ya pueden usarla para interferir en elecciones, manipular el mercado o inventar nuevas armas. También porque cada vez m?s gente se engancha a estas cosas y cree que les entienden. Y eso tiene muchos riesgos. En una ocasi?n, un chat anim? a alguien a suicidarse.

Image ID:
93157254
El neurocient?fico experto en inteligencia artificial Gary Marcus.
Parlament de Catalunya / Jordi Garcia Monte
/clip/2cbc0de0-8e64-4726-851f-2ac5af708bcd_16-9-aspect-ratio_default_0.jpg
880
495

Entonces, ?que expertos y grandes empresas hablen de "mentes no humanas que podr?an reemplazarnos" es una maniobra de distracic?n para no hablar de problemas m?s reales como la concentraci?n de poder?

Es muy posible que sea as?, pero no sé cu?les son sus motivaciones. Algunes personas quiz?s piensan que la IAG est? cerca y otras creen que si lo dicen aumentar?n las valoraciones de su empresa. La realidad es que no estamos cerca de que las m?quinas tengan un prop?sito inteligente ni de que podamos confiar en ellas. Es m?s f?cil preocuparse por los escenarios de ciencia-ficci?n y esquivar que la desinformaci?n ya est? aqu? y no tenemos una buena respuesta para frenarla. Si dirigiera una gran empresa me gustar?a que pensaras en los problemas m?s abstractos y no en los problemas concretos e inmediatos que no puedo resolver.

Es m?s f?cil preocuparse por escenarios de ciencia-ficci?n y esquivar hablar de otros peligros como la desinformaci?n, que ya est? aqu? y a la que no sabemos c?mo responder







La IA vive de la extracci?n de datos. ?Su uso expande la vigilancia (https://techcrunch.com/2023/09/25/signals-meredith-whittaker-ai-is-fundamentally-a-surveillance-technology/?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAANGNl3hcPf9Q0AA9pfb65LY2HXLj DhBfMwpnpadsLht23oQH1QiriDDME6_tGAcu2si5oXKs9FJpOq fDyOsCwmUiAtoFW9-DZMlCtN_LsrmcC6CF5vIANBpcDtoTU4q4tOdTxQ9Epo-tzmR1I_mtOPAluCM-Cj0dYwzhjDdRO0SO) como modelo de negocio?

Estamos acostumbrados a que todo el mundo, por cualquier cosa, acceda a renunciar a sus derechos a la privacidad. Mucha gente est? poniendo todo tipo de datos en ChatGPT y eso crear? un mont?n de problemas de seguridad. Cuando comparec? en el senado, Sam Altman (fundador de OpenAI) dijo que no usar?n esos datos para vender anuncios, lo que no significa que no lo hagan. Usar estas herramientas significa dar mucha informaci?n a las empresas que hay detr?s.

Eres partidario de crear una organismo global que supervise la IA como ya pasa con la energ?a nuclear. ?Es la ley que la UE prepara el modelo a seguir?

En general, s?. Me gusta bastante, pero todav?a no es ley y podr?a no aprobarse o debilitarse. Incluso si no es perfecta es uno de los mejores intentos que hay. Me gusta que pongan la responsabilidad en torno a la transparencia. Podemos tener esperanza.

Incluso si no es perfecta, la ley de la IA que prepara la UE es el mejor intento que hay. Podemos tener esperanza.







Ahora, las big tech dicen quierer cierta regulaci?n, pero han disparando su 'lobby' para limitar la ley y Altman incluso amenaz? con sacar ChatGPT de la UE. ?Se trata de una estrategia de relaciones p?blicas?

En parte lo es, quieren aparentar que les importa. En realidad ven alg?n valor en la regulaci?n, pero la quieren construir de manera que las proteja y mantenga a otras empresas fuera. Lo peor que podemos hacer es no tener regulaci?n; lo segundo peor es una regulaci?n dictada por las empresas.

M?s informaci?n (Auto)


http://placehold.it/175x100 T?tulo noticia (Auto)






Necesitamos transparencia en torno a los datos que se usan para que los artistas y escritores puedan ser compensados, para que las fuentes de sesgo puedan ser detectadas y mitigadas, y para que los cient?ficos puedan entender lo que hacen estos sistemas. Los gobiernos van a tener que insistir en ello y tendr?n que penalizar su incumplimiento porque las empresas no lo har?n voluntariamente.

Algunas personas tienen buenas intenciones y otras no. Pero las empresas juegan el juego de los 'lobbies'. Tienen mucho dinero y est?n tratando de inclinar la balanza para que la regulaci?n las favorezca. No podemos dejar que ocurra. Me molesta mucho cada vez que alg?n funcionario del gobierno se re?ne con un mont?n de grandes l?deres tecnol?gicos y se toman fotos (https://www.sport.es/es/noticias/nacional/pedro-sanchez-reune-sam-altman-87730179). Eso en mandar el mensaje equivocado. Necesitamos que en esas reuniones haya cient?ficos independientes y eticistas y no solo empresas y gobiernos a puerta cerrada.

Aun as?, gran parte de la investigaci?n cient?fica en este campo est? controlada econ?micamente por gigantes como Google o Meta...

Es definitivamente un problema que no haya suficiente financiaci?n independiente y que gran parte del dinero provenga de las empresas, porque marcan la agenda. La econom?a est? enormemente a favor de las empresas y para los académicos no aceptar ese dinero les hace m?s dif?cil competir. Toda la agenda de la ciencia ha sido eclipsada por la econom?a. El hecho de que los anuncios personalizados que puedes hacer con IA sean tan econ?micamente rentables convirti? a Google y a Meta en compa??as enormes y eso ha distorsionado la investigaci?n.



أكثر... (https://www.sport.es/es/noticias/sociedad/gary-marcus-inteligencia-artificial-elecciones-93157461)

منتديات - منتدى - شدات ببجي - شحن شدات ببجي - شحن ببجي - متجر ببجي - متجر شدات ببجي - شعبية ببجي - شدات - شحن روبلوكس - شحن يلا لودو - اقساط - شدات ببجي اقساط - شدات ببجي - شدات ببجي تمارا - شدات ببجي تابي - شحن يلا لودو - شحن يلا لودو اقساط - تقسيط بطاقات سوا - موبايلي اقساط - زين اقساط - ايتونز امريكي اقساط - ايتونز سعودي اقساط - شعبية ببجي - متجر اقساط - شدات ببجي - حسابات ببجي - شدات ببجي - شدات ببجي اقساط - شدات  ببجي - متجر busd - نون - نون - نون السعودية - نون - شدات ببجي - سيارات اطفال - تصميم متجر الكتروني - تصميم متجر سلة - تصميم شعارات - تصميم متاجر سلةوكالة تسويق - مصمم جرافيك - موشن جرافيك - - تصميم موقع سلة - تصميم متجر في سلة - تصميم متجر الكتروني سلة - افضل مصمم متجر الكتروني - تصميم متجر سلة - تصميم متجر سلة احترافي - تصميم متجر سلة - مصمم متاجر سلة - مصمم موشن جرافيك - مصمم موشن جرافيك بالرياض - افضل شركة تصميم متجر الكتروني  - تصميم متجر الكتروني احترافي - تصميم css سلة - متجر نوف ديزاين - شركات موشن جرافيك - افضل موقع لتصميم متجر الكتروني - تصميم شعار متجر سلة - تصميم متجر الكتروني متكامل - شركة تصميم متاجر الكترونية - تصميم المتجر سلة - تصميم متجر الكتروني - ماهو تصميم الجرافيك - تصميم