Expertos en IA chaman á reflexión sobre a súa seguridade

martes, 30 de maio do 2023 Marcus Fernández

En marzo unha serie de investigadores, docentes e emprendedores asinaron unha demagóxica carta aberta na que pedía unha moratoria de 6 meses nos experimentos con intelixencia artificial de grande escala, petición carente de sentido, principalmente porque non é posible conxelar os avances globalmente, polo que calquera tipo de moratoria só provocaría que quen non a acatase conseguiría unha vantaxe competitiva. Agora vemos unha iniciativa semellante dende o Center for AI Safety, no que un grupo de expertos en intelixencia artificial e figuras públicas expresan a súa preocupación polos riscos da intelixencia artificial, co que simplemente queren abrir o debate.
Para chamar a atención sobre o potencial problema, esta iniciativa asegura perseguir a mitigación do risco de extinción por mor da IA, considerando que este asunto debería ter a mesma prioridade a nivel global como a guerra nuclear ou as pandemias.
O manifesto publicado busca simplemente causar impacto, para que se discutan as medidas que deberían establecerse para conter os riscos provocados pola intelixencia artificial nun momento no que esta tecnoloxía está a acelerar no seu desenvolvemento, aínda que varios dos expertos asinantes tamén lembran que, pese ao que poidamos deducir do uso de ChatGPT, aínda estamos moi lonxe de que as IA sexan realmente avanzadas, ou incluso dos vehículos totalmente autónomos (pese a que os fabricantes digan o contrario), polo que estamos a tempo de chegar a un consenso sobre as precaucións que debemos adoptar tanto nos usos xa posibles (como a vixilancia electrónica) até aplicacións futuras que non podemos nin imaxinar.