Expertos en IA chaman á reflexión sobre a súa seguridade
martes, 30 de maio do 2023
En marzo unha
serie de investigadores, docentes e emprendedores asinaron
unha demagóxica carta aberta na que pedÃa unha moratoria de 6 meses nos
experimentos con intelixencia artificial de grande escala, petición carente de sentido,
principalmente porque non é posible conxelar os avances globalmente, polo que
calquera tipo de moratoria só provocarÃa que quen non a acatase conseguirÃa unha
vantaxe competitiva. Agora vemos unha iniciativa semellante dende o Center for
AI Safety, no que un grupo
de expertos en intelixencia artificial e figuras públicas expresan a súa
preocupación polos riscos da intelixencia artificial, co que simplemente
queren abrir o debate.
Para chamar a atención sobre o potencial problema, esta iniciativa asegura
perseguir a mitigación do risco de extinción por mor da IA, considerando que
este asunto deberÃa ter a mesma prioridade a nivel global como a guerra nuclear
ou as pandemias.
O manifesto publicado busca simplemente causar impacto, para que se discutan as
medidas que deberÃan establecerse para conter os riscos provocados pola
intelixencia artificial nun momento no que esta tecnoloxÃa está a acelerar no
seu desenvolvemento, aÃnda que varios dos expertos asinantes tamén lembran que,
pese ao que poidamos deducir do uso de ChatGPT, aÃnda estamos moi lonxe de que
as IA sexan realmente avanzadas, ou incluso dos vehÃculos totalmente autónomos
(pese a que os fabricantes digan o contrario), polo que estamos a tempo de
chegar a un consenso sobre as precaucións que debemos adoptar tanto nos usos xa
posibles (como a vixilancia electrónica) até aplicacións futuras que non
podemos nin imaxinar.