Es poco probable que haya conciencia en la inteligencia artificial, dice el cofundador de Polygon
Según Cointelegraph, Sandeep Nailewal, cofundador de Polygon y de la empresa de inteligencia artificial de código abierto Sentient, expresó sus dudas sobre la posibilidad de que la inteligencia artificial (IA) desarrolle conciencia. En una reciente entrevista, Nailewal declaró que la inteligencia artificial carece de la intención inherente que poseen los humanos y otras entidades biológicas, lo que hace poco probable que la inteligencia artificial alcance un alto nivel de conciencia. Descartó la idea de un escenario apocalíptico en el que la inteligencia artificial se vuelva autoconsciente y controle a la humanidad.
Nailewal criticó la idea de que la conciencia pueda surgir aleatoriamente de interacciones o procesos químicos complejos. Si bien reconoció que tales procesos pueden llevar a la creación de células complejas, argumentó que no son suficientes para generar conciencia. En cambio, Nailewal expresó sus preocupaciones sobre el uso potencial de la inteligencia artificial por parte de instituciones centralizadas con fines de vigilancia, lo que podría amenazar las libertades individuales. Subrayó la necesidad de que la inteligencia artificial sea transparente y democrática, abogando por una inteligencia artificial global controlada por individuos para crear un mundo sin fronteras.
Destacó la importancia de que cada persona tenga una inteligencia artificial personalizada que trabaje en su nombre y lo proteja de otras inteligencias artificiales que han sido desplegadas por entidades poderosas. Esta visión se alinea con el enfoque del modelo SenseNet hacia la inteligencia artificial, que contrasta con los métodos opacos de las plataformas centralizadas. Las opiniones de Nailewal se expresan a través de David Holzman, exprofesional de inteligencia militar y jefe de estrategia del protocolo de seguridad descentralizado Nauris. Holzman advirtió sobre los grandes riesgos a la privacidad que representa la inteligencia artificial a corto plazo, sugiriendo que la descentralización puede actuar como una defensa contra las amenazas de la inteligencia artificial.
En octubre de 2024, la empresa de inteligencia artificial Anthropic publicó un documento que discute los escenarios potenciales en los que la inteligencia artificial podría sabotear a la humanidad y propuso soluciones para mitigar estos riesgos. El documento concluyó que, aunque la inteligencia artificial no es una amenaza inmediata, podría volverse peligrosa a medida que avancen los modelos. Tanto Nailewal como Holzman argumentan que la descentralización es esencial para prevenir el uso de la inteligencia artificial para la vigilancia por parte de instituciones centralizadas, incluida la estatal. Sus visiones destacan el debate en curso sobre el futuro papel de la inteligencia artificial y la importancia de preservar las libertades individuales en un mundo digital en expansión.