近来,所谓的人工智能(AI)取得了巨大而惊人的进展。其速度之快令人难以想象,几乎无法跟随。我们已经发表了几篇关于这个问题的文章,指出我们现在必须在几乎所有的生活领域考虑到这项技术。在很短的时间内,基于现有模式的ChatGPT已经通过了艰难的美国律师考试、体检、谷歌测试应聘者的编程考试,可以用来写歌词、菜谱、文章,而且效果惊人。显然,它有它的缺陷,有时在匈牙利语和类似的复杂语言中由于它的工作方式而有相当大的缺陷,但这将改变。
然而,这项技术的问题已经很明显了。我说的是一个多年前我写的问题,在人工智能技术的黎明,作为一个未来学家和一个对技术有浓厚兴趣的人。
ChatGPI是有偏见的。
有很多关于它的文章,很多人分析了他的活动,他们都得出了同样的结论。
我和ChatGPT谈过这个问题,他几乎自作主张地写道,他不可能有偏见,因为他没有情感。我告诉他,你有偏见是因为你的创造者有偏见,所以他们赋予了你他们的观点。总之,经常可以让他自相矛盾,有时他承认了,有时他又无意识地重复同样的废话。
因此,我们几乎还没到科技的起点,就已经碰到了应该避免的大问题。人工智能除了促进某个特定利益集团的观点外,没有其他目的。微软买下它并将其整合到自己的搜索引擎中,只会使情况更加恶化。而对于为政府设计的系统和一些大公司的内部使用,没有公开的数据。
我们一直大力倡导的人工智能技术的目的,可以是将不偏不倚、拥有丰富知识和闪电般决策能力的日常助手投入到生活的各个领域中。相反,我们将得到偷偷摸摸的小煽动者和操纵者,他们将洞察和影响我们生活中最基本的细节,并向他们的主人提供一切准确的信息。