python code Ridge回帰のαの探索 正則化ができるRidge、Lasso、ElasticNetは、正則化の重みαで結果が違います。αは、実際に試してみないと、どの値が良いかわかりません。RidgeCV,LassoCV,ElasticNetCVを使うと、簡単に探索できます。これ... 2022.03.17 python code
python code Elastic netを使った演習 説明変数Xと目的変数yに対して、αを変えながら、ElasticNetで回帰分析して、決定係数と平均二乗誤差を求めてください。データは、トレーニングデータとテストデータに分けてください。αをとしたときに、決定係数のリストを変数r2_listに... 2022.03.17 python code
python code 正則化 LassoとElastic Net LassoとElasticNetのモデルも追加してみましょう。これらは、Ridge回帰と異なる正則化項を持っています。L1ペナルティー:パラメーターの絶対値の和。Lasso(ラッソ)で使われます。L1とL2ペナルティー:L1ペナルティーとL... 2022.03.15 python code
python code 正則化 Ridge回帰 過学習に対応する手法で、正則化というものがあります。正則化とは過学習を避ける手法です。具体的には、パラメーターを推定するときに、誤差だけではなくパラメーター自体の大きさも小さくしようとします。この追加する項を正則化項(ペナルティー)といい、... 2022.03.15 python code
python code 次元削除 回帰分析 次元削減をすることで、説明変数の数を減らせます。それにより過学習を抑えられます。ここでは、説明変数の数を減らしたときに、以下を確認します。トレーニングデータの平均二乗誤差が大きくなる。テストデータの平均二乗誤差の増加量は、トレーニングデータ... 2022.03.15 python code
python code 回帰分析の過学習 %matplotlibinlineimportnumpyasnp,matplotlib.pyplotaspltfromsklearn.model_selectionimporttrain_test_splitfromsklearn.line... 2022.03.15 python code
python code 線形回帰の演習 シンプルにやる方法変数を途中で変更する方法importpandasaspddf=pd.read_csv("input/boston.csv")#ボストン市の住宅価格データ一式#予測の対象になる多次元のデータX=df.iloc[:,:-1]#... 2022.03.14 python code
未分類 ロバスト回帰 散布図を見ると、高価格帯で誤差が大きいのがありました。外れ値の影響を減らしたロバスト回帰を試してみましょう。#前回のプログラムの読込%run3.ipynbX.shapefromsklearn.linear_modelimportRANSAC... 2022.03.14 未分類
python code 回帰分析 回帰分析を使うと、過去のデータから将来を予測できます。%matplotlibinlineimportpandasaspddf=pd.read_csv("input/boston.csv")#ボストン市の住宅価格データ一式#予測の対象になる多... 2022.03.03 python code
python code ランダムフォレスト 決定木を組み合わせたランダムフォレストという手法を試してみましょう。性能が高く、過学習に陥りにくく、スケーラビリティに優れている(並列実行が可能)という特徴があります。アンサンブル学習とランダムフォレストとはアンサンブル学習 とは複数のアル... 2022.03.03 python code