科技界的大佬在信里把智能技术的风险说了个透,提醒大家要赶紧建一套全球都能跟着玩的规矩

2015年,一位科技界的大佬在信里把智能技术的风险说了个透,提醒大家要赶紧建一套全球都能跟着玩的规矩。他觉得现在这势头跟以前互联网疯狂的时候太像了,钱太多进来可能会搞乱资源分配。他观察技术发展的规律发现,智能技术搞不好会把人类社会的结构都给撞烂,这种变化早就超出了以前的那套思维了。 有意思的是,他2015年就先把全球公共卫生体系的问题指出来了,这次又盯上了技术安全这块。他说那些开源的工具要是被坏人盯上了,国际上就可能出乱子。造成这种乱子的原因挺多的,主要是研发的速度太快,伦理法律跟不上;还有就是技术门槛越来越低,有些非国家的组织就能趁机钻空子;最后就是资本家只顾着赚钱,把好多隐藏的风险都给盖住了。 这种局面可能会带来三种麻烦:技术被滥用了会出现新的敌人;钱砸进去多了市场肯定会乱;工作机会也可能因为机器抢了饭碗而变样。这位大佬还说了个挺吓人的话,说智能技术的进步是没上限的,以后发展的速度可能会超过人自己学的速度。 面对这些挑战,大家得一起合作才行。他建议大家搞个“安全围栏”,把技术给围起来。具体可以从三个方面入手:先定个跨国的伦理准则;再搞个重点技术应用备案的制度;最后还要把应急响应机制给完善好。 这位科技界人士其实一直挺谨慎的。听说他对自家公司投的那些大钱还挺犹豫的,觉得得好好评估一下风险才行。他一边觉得未来的技术会比人强很多,一边又强调人得说了算,特别是在那些讲人文和价值观的事儿上。 现在智能技术发展到了关键节点。到底是要激发大家的创造力还是要守住安全底线,这就得看各国的本事了。选什么路走不光是产业竞争的事儿,更是关乎人类以后的事儿。每次技术上的飞跃都带着新的责任。 等到智能发展走到深水区的时候,人可不能迷糊了。得建一个能看长远的治理体系才行,不光是为了防着出事,更是要把技术往对人好的方向上带。历史会告诉我们,那些既能变又能掌控风险的社会才能在新时代站稳脚跟。