首页
决策树中,ID3算法的一个变量使用过后还能再次使用。
精华吧
→
答案
→
远程教育
→
国家开放大学
决策树中,ID3算法的一个变量使用过后还能再次使用。
A、正确
B、错误
正确答案:B
Tag:
变量
算法
决策树
时间:2024-03-21 12:15:20
上一篇:
下面关于决策树的剪枝操作理解错误的是()。
下一篇:
关于下面的决策树说法不正确的是()。
相关答案
1.
决策树中,由于信息增益最大的划分原则容易产生小而纯的子集,所以C4.5算法提出了增益比。
2.
决策树算法的C4.5算法可以处理()。
3.
下列不属于CART算法的优点的是()。
4.
决策树中,C4.5算法是ID3算法的延伸,可以处理缺失值、连续变量及剪枝等。
5.
决策树中,ID3算法既能处理定性变量,也能处理连续变量、缺失值等。
6.
决策树算法中,将当前样本划分为两个子样本,使得生成的每个非叶节点都有两个分支的算法是()
7.
关于下面的决策树说法正确的是()。
8.
下面关于决策树的剪枝操作理解正确的是()。
9.
下列属于CART算法的优点的是()。
10.
CART的结果不受自变量的单调变换的影响。
热门答案
1.
减枝准则是为了在精确性和复杂性中找到平衡,一般采用()来度量两者之间的关系。
2.
决策树的cp值越小,那么()
3.
下面关于决策树的剪枝操作理解不正确的是()。
4.
决策树中,CART算法生成的决策树是结构简洁的二叉树,在每一步的决策树只能选择“是”或“否”,即使一个feature有多个取值,也只能把数据分为两部分。
5.
下列关于随机森林算法,说法错误的是()
6.
CART的结果受自变量的单调变换的影响。
7.
构成随机森林的决策树越多,那么()
8.
用随机的方式建立一个森林。森林由很多决策树组成的算法是:()
9.
在聚类分析中,如果新类与其他类别之间存在多个点与点之间的距离,取这些距离最小者作为两类的距离,该方法为()。
10.
决策树中,CART算法生成的决策树是结构简洁的二叉树,在每一步的决策树只能选择“是”或“否”但当一个feature有多个取值,可以把数据分为多个部分。