-
從NFL定理可知,這兩個假設同樣好,我們立即會想到符合條件的例子
2018-08-15
-
奧卡姆剃刀并非唯一可行的原則
2018-08-15
-
對有限個樣本點組成的訓練集,存在著很多條曲線與其一致
2018-08-15
-
通過學習得到的模型對應了假設空間中的一個假設.于是,圖1 2的西瓜版本空間給我們帶來一個麻煩:現在有三個與訓練集一致的假設,但與它們對應的模型在面臨新樣本的時候,卻會產生不同的輸出
2018-08-15
-
可以有許多策略對這個假設空間進行搜索
2018-08-15
-
我們可以把學習過程看作一個在所有假設(hypothesis)組成的空間中進行搜索的過程
2018-08-15
-
否則標記信息直接形成了簇劃分:但也有例外情況,參見13 6節,亦稱“有導師學習”和“無導師學習”,更確切地說,是“未見示例”(unseen instance).現實任務中樣本空間的規模通常很大(例如20個屬性,每個屬性有10個可能取值
2018-08-15
-
從數據中學得模型的過程稱為“學習”(learning)或“訓練”(training)
2018-08-15
-
對學習算法除了通過實驗估計其泛化性能,人們往往還希望了解它“為什么”具有這樣的性能
2018-08-16