前面是做了一轮决策,按照信息论的方式,对各特征做了分析,确定了能够带来最大信息增益(注意是熵减)的特征。但仅这一步是不够的,我们需要继续对叶子节点进行同样的操作,直到完成如下的目标:[if!supportLists]1)[endif]程序遍历完所有划分数据集的属性;[if!supportLists]2)[endif]每个分支下的所有实例都具有相同的分类;如果程序已经遍历完所有划分数据集的属性,叶子节点下的实例仍然不具备相同的分类,那就采用多数表决的方法(有点像KNN)来决定该叶子节点的分类。好,上代码。defmajorityCnt(classList): classCount={}