霍金对人工智能的发展没有任何贡献。霍金的研究领域是理论物理学,与计算机科学、互联网技术、通信技术等没有直接联系。
但是,霍金除了是一位物理学家,还是一位科普作家,它关心宇宙的过去和未来,进而也关心人类的未来。他和爱因斯坦一样,饱含人文关怀。
爱因斯坦曾经担心核武器会毁灭这个世界;霍金也屡次警告世人,人工智能的发展可能让人类面临灾难。
但是,正如爱因斯坦的担忧没有阻止核能和核武器的发展一样,霍金对人工智能的担忧,也没有影响人工智能的快速发展。
但是,无论爱因斯坦还是霍金,他们作为世界科学界的领袖人物,客观上促进了人们对核能和人工智能的反思和警醒。爱因斯坦的警告,促使人们思考如何控制核武器扩散、安全利用核能;霍金等人的警告,则让世人在享受人工智能带来的好处时,也开始思考如何规制人工智能的发展,防止其负面效应。
不过,霍金担心的是人工智能发展失控,甚至进化为能够自我升级、自我运行、自我决策的“新物种”。当然,作为一位理论物理学家,霍金的思维动辄以亿光年计,其思考人类未来时,也会以百年或百万年计,其担忧的“未来人工智能”,与当今的人工智能相比,也许比今天的人类和百万年前的人类差距还要大。
因此,霍金的担忧其实是相当遥远的担忧。他关于人工智能的预言,也许在未来会得到更大程度的重视。
李飞飞是斯坦福大学教授,也是人工智能领域的知名专家。她的主要贡献包括推动了深度学习和自监督学习的发展,特别是在图像识别和自然语言处理领域。
她的研究团队开发出了许多有影响力的算法和技术,对现代人工智能的发展和应用产生了重要影响。