人工智能导论考试预测

演绎推理※23

  • 一般到个别

归纳推理

  • 个别到一般
  • 完全归纳推理和不完全归纳推理

默认推理

  • 缺省推理,假设某些知识已经具备

确定性推理

  • 知识证据确定,结论也确定

不确定性推理※22

  • 推理时所用的知识与证据不都是确定的,推出的结论也是不确定的。

单调推理

  • 随推理深入,越来越接近目标

非单调推理

  • 由于新知识加入,反而要否定已有结论,使推理返回到某一步重新开始

启发式推理

  • 启发性知识:与问题有关且能加快推理过程、提高搜索效率的知识。

正向推理

  • 已知事实→结论
  • 从初始已知事实出发,在知识库KB中找出当前可适用的知识,构成可适用知识集KS。
  • 按某种冲突消解策略从KS中选出一条知识进行推理,并将推出的新事实加入到数据库DB中作为下一步推理的已知事实,再在KB中选取可适用知识构成KS。
  • 重复(2),直到求得问题的解或KB中再无可适用的知识

逆向推理

  • 以某个假设目标作为出发点
  • 寻找证明这个目标的证据,若都能找到,则假设成立;若找不到则换假设目标

混合推理

  • 先正向后逆向
  • 先逆向后正向

双向推理

  • 正逆同时进行,在推理过程中的某一步“碰头”

信任函数和似然函数区别和联系※2022

盲目搜索※2023

  • 在不具有对特定问题的任何有关信息的条件下,按固定的步骤(依次或随机调用操作算子)进行的搜索。

启发式搜索

  • 考虑特定问题领域可应用的知识,动态地确定调用操作算子的步骤,优先选择较适合的操作算子,尽量减少不必要的搜索,以求尽快地到达结束状态。

状态空间搜索※2022

  • 状态空间:利用状态变量和操作符号,表示系统或问题的有关知识的符号体系
  • 利用状态空间进行搜索,得出一个从初始状态到目标状态的路径

带回溯策略的搜索※2023

  • 从初始状态出发,不停地、试探性地寻找路径,直到它到达目的或“不可解结点”,即“死胡同”为止。
  • 若它遇到不可解结点就回溯到路径中最近的父结点上,查看该结点是否还有其他的子结点未被扩展。若有,则沿这些子结点继续搜索;如果找到目标,就成功退出搜索,返回解题路径。

启发式图搜索

  • 启发信息:用来简化搜索过程有关具体问题领域的特性的信息叫做启发信息。
  • 利用启发信息进行搜索,例如A搜索算法和A*搜索算法

智能计算※2023

  • 受自然界和生物界规律的启迪,人们根据其原理模仿设计了许多求解问题的方法,这些算法称为智能计算或计算智能

遗传算法定义

  • 一类借鉴生物界自然选择和自然遗传机制的随机搜索算法,非常适用于处理传统搜索方法难以解决的复杂和非线性优化问题。

遗传算法的基本思想※2022

在求解问题时从多个解开始,然后通过一定的法则进行逐步迭代以产生新的解。

双倍体遗传算法※2023

  • 采用显性和隐性两个染色体同时进行进化,提供了一种记忆以前有用的基因块的功能。

多种群遗传算法

  • 建立两个遗传算法群体,分别独立地运行复制、交叉、变异操作,同时当每一代运行结束以后,选择两个种群中的随机个体及最优个体分别交换。

自适应遗传算法

  • 当种群各个体适应度趋于一致或者趋于局部最优时,使$P_c、P_m$增加,以跳出局部最优;而当群体适应度比较分散时,使$P_c、P_m$减少,以利于优良个体的生存。

群智能算法

  • 受动物群体智能启发的算法。
  • 群体智能:简单个体组成的群落与环境以及个体之间的交互行为

粒子群优化算法基本思想※2023

  • 将每个个体看作n维搜索空间中一个没有体积质量的粒子,在搜索空间中以一定的速度飞行,该速度决定粒子飞行的方向和距离。所有粒子有一个由优化函数决定的适应值。

蚁群算法基本思想

  • 信息素跟踪:按照一定的概率沿着信息素较强的路径觅食。
  • 信息素遗留:会在走过的路上会释放信息素,使得在一定的范围内的其他蚂蚁能够觉察到并由此影响它们的行为。

专家系统定义※2023

  • 一类包含知识和推理的智能计算机程序。

专家系统的基本结构,并解释其核心部件的功能※2022

专家系统基本结构

  • 知识库:存储专家的知识和经验,通常以规则、事实和关系的形式表示。
  • 推理机:利用知识库中的知识进行推理和决策,模拟专家的思维过程。

机器学习概念※2023

  • 机器学习(Machine learning)使计算机能模拟人的学习行为,自动地通过学习来获取知识和技能,不断改善性能,实现自我完善。

学习系统基本结构※2023

学习系统基本结构

知识发现※2023

  • 从数据库中发现知识(KDD)。

数据挖掘※2022

  • 是从数据库中挖掘知识。

BP神经网络

  • 初始化权重和偏置:在开始训练之前,随机初始化网络中的权重和偏置。

  • 前向传播:输入数据通过网络层层传播,最终得到输出。

  • 计算误差:比较输出结果与实际结果,计算误差。

  • 反向传播:通过误差反向传播算法,计算每个权重和偏置的梯度。

  • 更新权重和偏置:根据计算出的梯度,更新权重和偏置,以减小误差。

  • 重复上述步骤:直到网络收敛,即误差达到预定阈值或达到最大迭代次数。

卷积

  • 卷积操作的目的是从输入图像中提取特征。具体而言,卷积层通过卷积核(也称为滤波器)对输入进行卷积操作,生成特征图(feature map)。卷积操作的步骤如下:

  • 选择卷积核:卷积核是一个小矩阵,用来扫描输入图像的不同区域。

  • 局部加权求和:将卷积核与图像的局部区域进行加权求和,即点积运算。

  • 生成特征图:将结果赋值到特征图的对应位置,并继续扫描下一位置。

  • 卷积核可以帮助检测图像中的边缘、纹理、颜色等低级特征,逐层堆叠后可提取更高级别的特征。

池化

  • 池化操作的目的是减少特征图的尺寸,同时保留重要信息,从而减少计算量和防止过拟合。常见的池化操作有两种:最大池化(Max Pooling)和平均池化(Average Pooling)。

  • 最大池化:在局部区域内选择最大值作为输出。最大池化可以提取最显著的特征,增强模型的鲁棒性。

  • 平均池化:在局部区域内计算平均值作为输出。平均池化则较平滑特征图,减少过拟合。

  • 通过卷积和池化操作,卷积神经网络可以逐步提取输入图像的特征,并进行分类或回归等任务。

生成式对抗网络

  • GAN的基本思想是通过两个神经网络相互对抗来生成新的、与原始数据类似的数据。具体来说,它由两个主要部分组成:

  • 生成器(Generator):负责生成类似于真实数据的假数据。生成器接受一些随机噪声作为输入,并将其转换为数据(例如图片、文本等)。

  • 判别器(Discriminator):负责区分真实数据和生成器生成的假数据。判别器的输入是一个数据样本,并输出一个概率,表示该样本是否为真实数据。

  • 在训练过程中,生成器和判别器通过博弈论中的零和博弈不断提升自己的能力。生成器试图生成尽可能真实的假数据,而判别器则不断提高识别真假数据的能力。最终,生成器生成的数据将会非常逼真,难以被判别器识别出来。


人工智能导论考试预测
https://sdueryrg.github.io/2025/01/07/人工智能导论考试预测/
作者
yrg
发布于
2025年1月7日
许可协议