数集最根本的属性就序,元素之间有大小的顺序,但是复数集合中没有大小通常有大小序的集合就可以求导、有梯度,相当于自然客观事物,运动起来有能量,就相当于物质有运动;从而集合中的元素,天然存在一个联系,一个规则,一个“底层运算”,接下来我们就来聊聊关于因果序列举例?以下内容大家不妨参考一二希望能帮到您!

因果序列举例(因果联系与数集的序关系)

因果序列举例

数集最根本的属性就序,元素之间有大小的顺序,但是复数集合中没有大小。通常有大小序的集合就可以求导、有梯度,相当于自然客观事物,运动起来有能量,就相当于物质有运动;从而集合中的元素,天然存在一个联系,一个规则,一个“底层运算”。

人类抽象思维的产物,许多是没有序的性质,或者说,没有像数集的这种序,只具有抽象的、“编码序”。也就是说,人类的逻辑产物已没有数集的“底层运算”,抽象思维集中的元素之间的联系,是靠逻辑---因果进行联系的。

你不是问过事物之间都是因果联系吗?局部讲,或者说,从子集关系上讲,可以没有因果联系,主要看范围、看域的大小。全域上讲,宇宙中的各个元素,也就是他的拓扑子集之间,都是有逻辑联系的,都算因果联系,只是因果强弱性不同罢了;你像父子关系、兄弟关系,这因果联系就属于绝对的强,基本没得改;但宇宙天体观测,宇宙天体测量,这种因果关系就弱得多,你天天上街见到的人的事件,这因果性也弱,但比宇宙观测事件强;似乎事件的因果性强弱与“时空尺度”成正比。

为啥世上存在骗子、神棍、《三体》作品,就是因为这些家伙挑战世界的因果联系性,或者说,挑战人类的认知逻辑底线。

人类是“活在”认知逻辑之上、因果联系之中,因果逻辑联系是客观事物的“底层序”或叫“底层运算”,就像数集元素之间的底层联系,或叫“底层运算”就是序、数之间的大小的序。

人类,或者说,世间所有事物都是活在信息中或信息上,包括骗子、神棍脑瓜子中的物质和产物,其实就是集合中元素之间的联系。人类信息集是逻辑编码集,用逻辑编码的;而自然客观事物的运动、变化的信息集是讲究力的大小、动量的大小、能量的梯度的,是数集上的大小序联系。

因此,人工智能的应用的“底层逻辑”,就是如何把人类信息集中的底层因果联系、因果逻辑,“改造”成数集上的序关系。

你比如说,围棋上的一个模式,其意义的大小和价值,是如何联系到整盘棋,至少是局部来谈,这就关系到把某个模式关联到全局或局部,将其转化为数集上的大小序。

人工智能,目前都是在数集中,搜索数集中的一个序关系过程,即在某个数集(或说空间)上,搜到一个函数关系,我们称其为数据挖掘;而人类思维过程是在客观事物集中,搜索其的一个逻辑关系,一个因果逻辑联系的过程,我们称其为知识挖掘。

说白了,人工智能应用的最关键问题,就在于如何将知识挖掘,变换到数据挖掘;如何将因果逻辑关系,转换,或叫一一映射到数的序关系上。如果你能很熟练地完成这种转换,你就是人工智能上的大行家!理论上讲,你可以让人工智能帮你做任何你想做的事。

当然,人类的计算机程序,或者说,计算机语言也不断改进,试图在抽象集合中引进序关系,说白了,就是想将因果逻辑关系变成简单的数的序关系。比如说,C语言中的结构体数据格式、指针数据格式等,但是,C程序依然是简单的数理逻辑流,没有数集上的序。

人类的大脑神经网络,为什么是量子神经网络呢,其思维过程是量子过程呢?因为量子世界是复数运算,量子干涉方式传递或叫变换信息流;复数集上没有数的大小序关系,所谓复变函数、复数空间、希尔伯特空间,都是人们在复域上引进序后才有。量子过程只讲究事件发生的几率大小后的、量子隧穿的,信息传递和变换过程,虽然几率也有大小序,在通常情是如此,但在特殊情况下,小概事件一定要发生;关键是人类习得的经验就是这种事件发生概率的运算或累积方式。即因果联系或因果逻辑的运算,很可能就是量子逻辑、量子干涉“运算”。

以上给你提供一个思考方向。下面说点实际的。

人工智能搜索买股票。首先,你要把股票的走势模式“编码”了,这里需要进行模式分类,可能有不同维度的模式,这时,你的“编码”数据格式就得是一个数表,矩阵(或张量形式)。股票时分析就是一个典型的时间序列分析,而且是非平稳随机过程,类似量子过程;小概事件一定发生,类似量子隧穿过程。

其次,你得把股票模式空间(非平稳随机过程空间)按照其相关函数进行学习,将其模式的序由相关函数表达进行搜索、寻优。由于股票的非平稳随机性,所以还需对其平稳性的修正学习;这是更高级的学习机制,以后慢慢研究。

人工神经网络可以说是一种函数变换,是张量空间上的高斯函数变换;利用函数的梯度作为“学习驱动力”,实现对目标系统的函数解构。

量子神经网络是把复函数(空间)引入到神经网络中,相当于把目标系统解构在希尔伯特空间上,只不过还是引进了几率序,仍然没有引进“因果联系序”。

其实,你应该看出来了,通常我们求解的目标系统都是n维空间,其集合中的元素都是一个向量,说白了,就是一个可以用n维线性空间解构的n维非线性空间。所以说,人工智能的基本数据结构,就是数组,然后在数组基础上形成类似结构体、类这样的数据结构。通常在抽象数学里,集合的元素,可以通过类似“加括号”方式生成,例如,设集合X={a,b}则可这样操作生成一个X的拓扑扑η(x)={a,b,(a,b),(a,(a,b))…}。

当然,这是非常不严谨的,只是为了说明“加括号”操作方式。实际上,计算机中的结构体,就是这么一种“加括号”生成的数据结构!这里的结构元素的“联系”(序),已经有点因果联系的雏形了。目前主要是“动力问题”,“因果动力”,或“因果力”问题;就是引进数集上的梯度概念或形式;也就是我给你说的,因果强弱序关系。目前只知道,因果强弱与时空尺度正成比;你可以思考一下,给出一个抽象而优美的其他因素关系。可能还与运动强度(能量)相关;还可能与时空上的状态几率相关。

现在已有在几率空间上构造梯度函数;在抽象的测度集上构造梯度;就差在因果关系上构造梯度的;编码集上,码元之间有距离,但还没序关系,但也有人在利用码距做梯度的。模糊数学其实就是尝试做信息,或叫“逻辑序”,以此引入多值逻辑。

总之,计算机上的结构体、类等数据结构,是一种“逻辑单元”,“非数序”数据结构。如果用其做神经元,则需巧妙构建。

熟练应用好人工智能,关键在于将因果逻辑空间映射到一个线性空间上。其实就是构造出“学习梯度(函数)”。

,