从出发点到终点,有一万条路,AI模型的训练就是把这一万条路都走一遍,然后选出最合适的那条路,这才是AI的价值。
就像生物制药,有一万种选择,AI帮忙给出最好的那几个选择,就会大大地缩减研发经费、提高研发成功率。
要是一开始就只提供一条路,那还训练个屁啊,不给AI选择、评判、思考和分析的机会,就只告诉他一个标准答案,AI就会毫无意义。
德文、法文、日文、韩文的数据量太少,中文的数据量很大,可是因为环境的限制有价值的数据也很少。
所以,想训练出世界级的AI模型,就只能用英文语料来训练。
这就需要一些弱势语言的AI模型,要有语言转换能力,去转换成英文。
就像使用文心一言,让他画一个起重机的图片。
结果画的是鹤。
这就很让人费解。
其实很简单,起重机的英文是crane,而crane在英文里主要是指鹤。所以AI模型就画出了鹤的图片。
又比如“可乐鸡翅”这种,放在中文语境里,其实很好理解,就是一道菜。可是,这里面有一道翻译的手续,把“可乐鸡翅”翻译成英文,在翻译过程中就造成了信息离散,导致画出来的可乐和鸡翅。
ChatGPT一样会遇到这样的困境。
用英文向ChatGPT提问,回答的速度会非常快,而且准确度极高;如果用中文、日文、韩文、法文、德文等其他语言来提问,反应速度就会很慢,给出的答案也会错误百出。
因为其他语言的数据量太小了,训练出的模型就不够智能。
只有英文版最智能。
文心一言想要表达得智能一些,就不能对接中文的语料,要去对接英文的训练数据才行,然后背后再增加一套翻译算法和内容审查算法。
所以,想做出一款伟大的AI产品,除了在人工智能领域的顶尖算法之外,还有很重要的一个因素,就是训练AI模型的数据。
这些数据里,有些是开源的公共数据,全世界都可以用。有一些是私有数据,只有自己可以用。
像微软、谷歌、Facebook这种硅谷的巨头公司,除了可以使用庞大的公有数据外,还有庞大的有价值的英文私有数据可以使用,他们做出来的AI模型就会比只根据公有数据训练的AI模型要更加强大。
所以,周不器对内容很重要,尤其是海外的英文内容。
这些都是私有数据,都有可能成为紫微星在未来世界竞争中最宝贵的资产。
如果拉里·佩奇说的这款Knol真的是对标维基百科的产品,那就太有意义了。维基百科是公有数据,Knol就是私有数据。
“维基百科更像是一个词典,内容都比较基础,是偏大众的产品。Knol是由一部分有能力的权威用户来共同协作,用来解释一件事物的是什么、怎么做、起因经过结果及其周边事物,并且注明作者的真实资料,从而让内容更加地精准、权威。”
拉里·佩奇做了一个简单的比较。
周不器一下就听明白了Knol这款产品失败的原因。
信息的准确性、真实性,其实一点都不重要,大众根本不在乎真相,只在乎表象。这就会形成一种“越大众,越普及”、“越权威,越小众”的现象。
谷歌想把Knol打造成一款有权威级的内容产品,立意很高、志向很大,但想要收获足够多的用户,那还是难了点。
就像紫微星在国内的两款产品,微知和今日头条。
微知上的内容比今日头条优秀多了。
可是,微知的日流量只有6500多万,今日头条却高达2.8亿。就是因为微知的内容太好了,头条的内容很能哗众取宠博大众的眼球。
两人又经过了简单的交流,周不器对Knol这款产品兴趣越来越浓,打算回头先去研究一下。如果合适,不妨就买过来,加以改造。
会谈的最后,两人谈到了长生不老的话题。
拉里·佩奇对此很感兴趣,“等敲定了推特的案子,接下来一个方向就是要让董事会批准,去尝试在这个领域做一下。”
周不器似笑非笑,“要投资多少钱?”
拉里·佩奇口气很大,“20亿美元吧,资金太少也没必要让董事会批准。我打算成立一家专门从事生物研究领域的子公司,用于抗衰老的相关研究,目标是实现人类长寿甚至永生。”
周不器问:“跟IT相结合?”
拉里·佩奇坦言道:“当然,要跟人工智能关联起来。现在人类每研究出一款蛋白质的功效,可能都要由几十位医学专家花上千万美元才能研究出来。如果AI发展起来了,完全可以一次性地把全人类所有已知蛋白质的功效都给破译出来。”
周不器竖起一根大拇指,“有追求。”
“你也会参与吧?AI在改变世界。”
“当然。”