VARIAN REPORT
前立腺がんは,古くから放射線反応性の指標であるα/β比が小さいことが知られており,最近の報告では,前立腺がんのα/β比は,1〜2Gy程度とされている 1) 。α/β比とは,放射線治療における理論(LQモデル)に基づく数値で,放射線の1粒子で2本鎖DNAを切断する「1粒子切断」と,放射線の2粒子で2本鎖DNAを切断する「2粒子切断」が細胞死に等しく寄与する時の線量に該当する。放射線生物学的にα/β比が小さい場合,1回線量が大きいほどその効果が高くなる 2) 。隣接臓器である膀胱や直腸のα/β比は3〜5Gy程度とされ,前立腺がんよりもα/β比が大きいため,前立腺がんへの寡分割照射が有効であることが示唆される。
LQモデルを用いて分割照射を評価する代表的な方法として,equivalent dose in 2Gy fraction(EQD2)がある。EQD2は,D〔d+(α/β)〕/〔2+(α/β)〕の公式で定義され,1回線量dで総線量Dを照射した場合と等しい生物学的効果を得るための1回線量を2Gyとした場合の総線量(Gy)を表している。言い換えると,EQD2は,通常分割照射(1回線量2Gy)に変換した場合の総線量を表す。EQD2を用いる場合は,以下の3原則を満たす必要がある。
(1) 1回線量は,1Gyより大きく,α/β比の2倍以下の範囲でなければならない。
(2) 各照射間隔は,少なくとも6時間以上は空ける必要がある。
(3) 比較する照射法の総治療期間は等しくなければならない。
当院における長期治療成績 3)
1.対象と評価方法
2005年5月〜2011年12月に当院で前立腺がんへの寡分割照射を行った195人(表1)を後ろ向きに解析した。有害事象を考慮し,インスリン使用中の糖尿病患者とワーファリン内服中・中断不可の患者は本対象から除外した。リスク分類としてD’Amico分類,前立腺特異抗原(PSA)再発(生化学的再発)の基準としてフェニックスの定義(PSA最低値+2.0ng/mL),有害事象の評価としてRTOG/EORTC(放射線反応評価基準)を用いた。
1)放射線治療
1回線量を3Gyとし,週3回の隔日照射(月・水・金),IMRT(IGRT併用),66Gy/22回/7〜8週間とする。
・臨床標的体積(CTV):T1〜T3a:前立腺+精囊基部,T3b:前立腺+全精囊
・計画標的体積(PTV):CTV+(頭尾側 0.9cm,左右側 1cm,腹側 1cm,背側 0.アルファ値の定義 6cm)
・線量評価の指標:CTV D95(CTVの95%以上の体積に照射される線量)
・線量分布図(図1)
2)ホルモン療法
・低リスク:併用なし
・中間リスク:照射前〜照射期間中に4〜6か月間
・高リスク:照射前〜照射期間中に4〜6か月間,照射後に6か月間(合計1年間)
3.治療内容の特徴
・前立腺がんのα/β比を1.5と仮定し,1回線量をα/β比の2倍である3Gyとした。また,週3回照射を用いることで,総治療期間を通常分割照射と合わせるようにした。総線量66Gy/22回(週3回法)は,EQD2で84.アルファ値の定義 9Gy相当になる。
・線量評価の指標として,一般的なPTV D95でなく,CTV D95を用いている。CTV D95は,PTV D50(mean)に近似しており,従来の放射線治療である三次元原体照射(3D-CRT)と線量分布が似ているため,用いやすい指標と考えている。
・高リスクに対して,一般的な照射後2年間のホルモン療法ではなく,短期(合計1年間)ホルモン療法を用いている。
4.結 果
観察期間の中央値は,69か月であった。5年全生存率:97.7%,5年PSA非再発率:92.4%であった。リスク別の5年PSA非再発率(図2)は,低リスク:100%,中間リスク:93.2%,高リスク:89.8%であった。
有害事象に関しては,尿路系は,急性期Grade 0〜1:168人(86.2%)・Grade 2:27人(13.8%),晩期Grade 0〜1:190人(97.4%)・Grade 2:5人(2.6%)であり,急性期・晩期ともGrade3以上はなかった。消化器系は,間歇的な直腸出血(Grade 2)を1人に認めたのみで,そのほかにGrade2以上は認められなかった。
●参考文献
1) Morgan, S.C., Hoffman, K., Loblaw, D.A., et al. : Hptofractionated Radiation Therapy for Localized Prostate Cancer : An ASTRO, ASCO, and AUA Evidence-Based Guideline. J. Clin. Oncol., 36(34) : 3411-3430, 2018.
2) Miles, E.F., Lee. W.R. : Hypofractionation for Prostate Cancer : A Critical Review. Semin. Radat. Oncol., 18(1): 41-47, 2008.
3) Hashimoto, Y., Motegi, A., Akimoto, T., et al. :
The 5‑year outcomes of moderately hypofractionated radiotherapy(66 Gy in 22 fractions, アルファ値の定義 3 fractions per week)for localized prostate cancer : A retrospective study. Int. J. Clin. Oncol., 23(1) : 165-172, 2018.
MaterialInstanceConstant (マテリアルインスタンス コンスタント) パラメータ継承
マテリアル、ThreeParam_Mat アルファ値の定義 が作成されます。このマテリアルは上記のテクスチャを利用して UV 座標をトリミングし、4 つの四分の一の一つのみが、所定の時間に示されるようにします。これは、入力テクスチャ座標を(0.5、0.5) だけスケーリングすることによって行います。このスケーリングの結果によって、結果として赤「1」の「イメージ」が提供されます (ブレンド モードが適切にセットされている場合)。
最初のパラメータ、UVOffset は、スケールされたテクスチャ座標に追加されるベクタパラメータです。このパラメータは、パラメータ名を 「UVOffset」にして、MaterialExpressionVectorParameter インスタンスによって提供されます。この表現からの値は、X および Y 値のみを通す ComponentMask によって実行されます。結果は、使用するテクスチャのサブイメージを「シフト」するために、スケールされた UV 値に追加したものになります。例えば、(0.5、0.0) が、UVOffset パラメータにセットされた場合、テクスチャは、右上の四分の一区分がサンプルされます。UVOffset のデフォルト値は、(0.0、0.0、0.0、0.0) にセットされており、テクスチャのオフセットはありません。
この最終計算されたテクスチャ座標は、TextureSample 表現に渡され、テクスチャはソース イメージにセットされます。
2 番目のパラメータ、TextureBright は、結果として生じるイメージを「明るくする」(または暗くする…) ためにテクスチャ サンプルの RGB 出力とともに乗算されるベクタ パラメータです。このパラメータは、パラメータ名を「TextureBright」にセットして、MaterialExpressionVectorParameter インスタンスによって提供されます。この表現の出力は、テクスチャの RGB 出力とともに Multiply(アルファ値の定義 乗算) 表現に供給されます。Multiply (乗算) 結果は、マテリアルの最終の拡散値として使用されます。TextureBright のデフォルト値は、(1.0、1.0、1.0、1.0) にセットされ、テクスチャを明るくする効果はありません。
3 番目のパラメータ、AlphaScale は、イメージの最終の不透明度をスケールするためにテクスチャ サンプルのアルファ出力とともに掛ける スカラー パラメータです。このパラメータは、パラメータ名を「AlphaScale」にセットして、MaterialExpressionScalarParameter インスタンスによって提供されます。この表現の出力は、テクスチャのアルファ出力とともに Multiply 表現に供給されます。Multiply(掛けた)結果は、次に、マテリアルの最終の不透明度値として使用されます。AlphaScale のデフォルト値は、1.0 にセットされ、テクスチャのアルファには影響がありません。
図 3. マテリアル エディタでの ThreeParam_Mat
このマテリアルを「そのまま」 StaticMesh、この場合デフォルトのエディタ キューブに適用すると、結果は以下のようになります。
図 4. StaticMesh に適用された ThreeParam_Mat
最初の MaterialInstanceConstant オブジェクト
MaterialInstanceConstant を作成し、First_MatInst としました。これには、ThreeParam_Mat にセットしたペアレントがあります。2 つのベクタ パラメータ値を同様に、ペアレント マテリアルのデフォルト パラメータをオーバーライドするためにセットします。
1 番目は、「TextureBright」と名付け、値を (5.0、5.0、5.0、1.0) にセットします。この値により、ペアレント マテリアルの (1.0、1.0、1.0、1.0) の設定がオーバーライドされ、5 のファクタだけ「明るくされている」テクスチャになります。
2 番目は、「UVOffset」と名付け、値を (0.5、0.5、0.0、0.0) にセットします。この値により、ペアレント マテリアルの (0.0、0.0、0.0、0.0) の設定がオーバーライドされ、イメージの右下にシフトされたテクスチャ サンプルになり、緑色の「4」が表示されます。
この MaterialInstanceConstant のプロパティは、以下のように表示されます。
図 5. First_MatInst プロパティ
この MaterialInstanceConstant を StaticMesh に適用すると、結果は以下に示すようになります。
図 6. 静的メッシュに適用された First_MatInst
ご覧のように、テクスチャのサブイメージは、イメージの右下隅にあります。テクスチャは、図 4 で示されたキューブよりも「より明るく」なり、インスタンス コンスタントは正確に機能しています。
2 番目の MaterialInstanceConstant オブジェクト
2 番目の MaterialInstanceConstant アルファ値の定義 を作成し Second_MatInst とします。そのペアレントを First_MatInst MaterialInstanceConstant にセットします。シングル ベクタ パラメータ値を同様に、ペアレントのパラメータをオーバーライドするためにセットします。
パラメータは「TextureBright」と名付け、値は、(5.0、5.0、5.0、1.0) にセットします。この値は、ペアレント マテリアルの (1.0, 1.0, 1.0, 1.0) の設定をオーバーライドし、5 のファクタだけ「明るくされる」テクスチャになります。
パラメータは「UVOffset」と名付け、値は、(0.5、0.0、0.0、0.0) にセットします。この値により、ペアレント マテリアルの (0.5、0.5、0.0、0.0) の設定はオーバーライドされ、イメージの右上にシフトされるテクスチャ サンプルの結果になり、黄色の「2」が表示されます。
この MaterialInstanceConstant のプロパティは、以下のように表示されます。
図 7. Second_MatInst プロパティ
この MaterialInstanceConstant が、StaticMesh に適用されると、結果は、以下に示されるようになります。
図 8. StaticMesh に適用される Second_MatInst
ご覧のように、テクスチャのサブイメージは、イメージの右上隅にあります。テクスチャは、図 4 に示されているキューブよりも「より明るく」なり、また、First_MatInst によって供給される値を使用しており、インスタンス コンスタントは正確に機能しています。
表示される各キューブは、同じマテリアルを利用しますが、MaterialInstanceConstant の使用法のために異なる外観を呈することになります。チェーンで一緒にしたときは、同じベース マテリアルから、様々な効果を生じるためにキューブを使用することができます。
この例では、MaterialInstanceConstant の使用法によってオーバーライドのために利用できる 3 つのパラメータを含むマテリアルが作成されました。
継承セットアップのチェーンは次の通りです ('-->' によって‘parent of’が表されます): ThreeParamMat --> First_MatInst --> Second_MatInst.
以下に、この説明で使用した 3 つのキューブすべてのスクリーンショットがあります。
図 9. 3 つすべてのキューブ サンプル
キューブ | 適用されたマテリアル | TextureBright | UVOffset | AlphaScale |
---|---|---|---|---|
一番左 | ThreeParam_Mat | ThreeParam_Mat | ThreeParam_Mat | ThreeParam_Mat |
中央 | First_MatInst | First_MatInst | First_MatInst | ThreeParam_Mat |
一番右 | Second_MatInst | First_MatInst | Second_MatInst | ThreeParam_Mat |
You are viewing documentation for the Unreal Development Kit (UDK).
If you are looking for the Unreal アルファ値の定義 Engine 4 documentation, please visit the Unreal Engine 4 Documentation site.
CSSでRGBに透明度を加えて色を指定できるRGBAの書き方 [CSS3,色]
CSSには、RGBに透明度を加えたRGBAで色を指定する方法もある
- RGB=Red(アルファ値の定義 赤), Green(緑), Blue(青)
- RGBA=Red(赤), Green(緑), Blue(青), Alpha(透明度)
従来のRGB値での色指定方法
透明度(不透明度)を加えたRGBA値での色指定方法
- R: 赤色の度合い(0~255) :上記の例では255
- G: 緑色の度合い(0~255) :上記の例では165
- B: 青色の度合い(0~255) :上記の例では0
- A: 不透明な割合(0~1) :上記の例では0.5
RGBAカラーモデルを使って透明度を加えた表示例
Red 透過25% Red 透過50% Red アルファ値の定義 透過75%
Blue 透過25% Blue 透過50% Blue 透過75%
Yellow 透過25% Yellow 透過50% Yellow 透過75%
Green 透過25% Green 透過50% Green 透過75%
著書 (紙の本)
記事ランキング
製作ツールの紹介
オススメCSS解説書
スタイルシート関連 の新刊
スタイルシートTipsふぁくとりーの主要なカテゴリ
-
(15) (20) (8) (19) (アルファ値の定義 12) (21) (3) (5) (8) (3) (6) (7) (17) (11) (7)
フォローはお気軽に!
関連するかもしれない情報
HTML convert time: 0.599 sec.
--- 当サイト内を検索 ---
このページの製作者は、にしし(西村文宏)です。
このページの内容は真実であることが基本ですが、虚構や妄想が混じっていることも多々あります。(^_^;)
リンクは歓迎致します。リンク用バナーも用意しています。必要であればご使用下さい。
Copyright © 1997-2022 西村文宏/にしし Fumihiro Nishimura.(Nishishi) All rights reserved.
このページは、スマートフォン・タブレット等のモバイル端末でもご覧頂けます。URLは端末に関係なく共通です。モバイル端末で 当サイトのHOMEページ にアクセスするには、下記のQRコードを読み取ると楽です。
※このサイトは横幅768px未満で閲覧するとモバイル用、横幅768px以上で閲覧するとタブレット&PC用デザインになります。横幅920px以上の画面での閲覧がお勧めです。ただし、古いブラウザ(特にIE7以下など)では横幅に関係なくレガシーデザインで表示されることがあります。
強化学習入門 ~これから強化学習を学びたい人のための基礎知識~
(画像はhttps://www.アルファ値の定義 engadget.com/2016/03/12/watch-alphago-vs-lee-sedol-round-3-live-right-now/より)
「強化学習(Reinforcement Learning)」と呼ばれる学問分野をご存知でしょうか。
機械学習にはさまざまな分類方法がありますが、「教師付き学習(Supervised Learning)」「教師なし学習(Unsupervised Learning)」「強化学習」という3種類に分ける考え方があります。
この考え方では、強化学習は機械学習のひとつの大きな分野をなすということになります。
(画像は UCL Course on RL Lecture 1: ntroduction to Reinforcement Learning より)
教師付き学習とは、「入力と出力の関係」を学習するものです。
「分類」や「予測」と呼ばれるような問題は、教師付き学習のクラスとなります。
例えば、今日の天気から明日の天気を予測するような問題が、教師付き学習にあたります。
この場合、入力が今日の天気、出力が明日の天気となります。
教師なし学習とは、「データの構造」を学習するものです。「教師なし」という名の通り、正解となる出力が学習の際に与えられないことが特徴的です。
「クラスタリング」や「次元削減」と呼ばれるような問題は教師なし学習のクラスとなります。
例えば、購買情報を元にユーザを数種類のグループに分けるような問題が教師なし学習にあたります。
この場合、入力は購買情報、出力はグループですが、その出力されたグループには正解がもともとあるわけではなく、単に「似ているユーザ」をグループ分けした結果です。
最後に、
強化学習とは、試行錯誤を通じて「価値を最大化するような行動」を学習するものです。
教師付き学習とよく似た問題設定ですが、与えられた正解の出力をそのまま学習すれば良いわけではなく、もっと広い意味での「価値」を最大化する行動を学習しなければなりません。
例えば、株の売買により利益を得る問題が強化学習にあたります。
この場合、持っている株をすべて売り出せば確かにその時点では最もキャッシュを得ることができますが、より長期的な意味での価値を最大化するには、株をもう少し手元に置いておいたほうが良いかもしれません。
他にも、テトリスでできるだけ高スコアを得るような問題も強化学習の枠組みで考えることができます。
その時点で一番スコアが高くなるのは、一列でもすぐに消すようなプレイ方法ですが、より長期的には、できるだけ溜めてから一度にたくさんの列を消したほうがスコアが高くなります。
強化学習について
さて、強化学習についてもう少し詳しく説明します。
強化学習では、与えられた「環境」における価値(あるいは「利益」と呼びます)を最大化するように「エージェント」を学習させます。
例えば、「テトリス」が環境で、そのプレイヤーがエージェントです。
(画像は https://openai.com/blog/universe/ より)
今回は、アルゴリズムのために必要な強化学習の用語について、状態 ・行動 ・報酬 の3要素をご紹介します。
状態 とは、環境が今どうなっているのかをあらわすものです。株の売買の例では、各株式の今の値段や、持っている株式の数が状態にあたります。
行動 とは、エージェントが環境に対してどのような行動を起こすことができるのかをあらわします。株の売買の例では、株の売り買いの判断やその量にあたります。
報酬 とは、ある状態においてエージェントが行動を起こした結果、どれくらいの報酬が得られるのかをあらわします。株の売買の例では、売買の結果の儲けにあたります。
ここで、報酬に関しては一点注意が必要です。
先ほど言った通り、強化学習ではその時点で貰える報酬(即時報酬などと呼びます)ではなく、(将来に渡る)価値を最大化します。
よって、単に即時報酬が多くもらえる近視眼的な行動ではなく、より未来を考えた価値を最大化する行動を取らなければなりません。
では、どうやって価値を最大化させるようにエージェントを学習させるのでしょうか?
典型的には、「ある状態 においてある行動 を取った時の価値」がわかれば、その価値の一番高い行動を選択すればよいはずです。
この価値のことを Q値 あるいは状態行動価値と呼び、 と書きます *1。
Q値は「報酬」ではなく「価値」であることに注意してください。つまり、Q値とは短期的な報酬ではなく、長期的な意味での価値を値として持っている関数です。
さて、「その行動によって、価値の高い状態に遷移できるような行動」は、遷移先と同じくらいの価値を持っているとみなすのが自然です。
「価値の低い状態に遷移するような行動の価値は低い」ことも言えそうです。
つまり、現時点 におけるQ値は一つ先の時点 のQ値によって書くことができます *2:
下付きの は時点 における状態や行動であることを表しています。
は得られた即時報酬で、外側の期待値が に関するもの、内側の期待値が に関するものです。
は割引率と呼ばれ、将来の価値をどれだけ割り引いて考えるかのパラメータです。
強化学習のアルゴリズム
価値を最大化する行動を学習するためにはQ値がわかればよいこと、そしてQ値は (1) 式で計算できることがわかりました。しかし、(1)に含まれる期待値を計算するためには、次の時点の状態を正確に計算できる必要があります。
期待値とは、株の売買の例では「明日の株がどうなっているか」を、テトリスの例では「次にどのテトリミノ *4 が供給されるか」を計算しなければなりませんが、これは一般的に非常に難しいか、もしくは原理的に不可能です *5。
そこで、期待値をとるのではなく、実際に行動を実施して次の時点の状態を確認しながら、少しずつQ値を更新していきます。実際に行動した結果のサンプルで期待値の代用としよう、というわけです。
本記事で紹介する Q学習、Sarsa、モンテカルロ法のいずれも、この考え方に従ったアルゴリズムです。
Q 学習では、(1) 式の期待値の中身 を と置き換えることで、次のように Q値を更新していきます。
は学習率と呼ばれるパラメータ(0以上1以下)で、Q値の更新をどれだけ急激におこなうかを制御します。
第一項が現在のQ値、第二項が新しいQ値にあたり、その二項が と で足し合わされていますから、現在のQ値を第二項にむかって ぶんだけ近づける更新をしています。
(1)式の内側の期待値は、(2)式では max により置き換えられています。
(1)式の内側の期待値は、次の状態がどれくらいの価値を持つかを見積もっているわけですが、その価値の見積もりを(現在推定されている値の)最大値にしてしまおう、というわけです。
エージェントは自由に行動を選ぶことができるので、現在推定されている価値の最大値をもって価値の見積もりとすることはそんなに悪い方法ではないように思われます。実際、Q学習はうまくいくことが多いことが昔から知られています。
Sarsa
Sarsa もQ学習のように、(1) 式の期待値の中身 を で置き換えます。
Q学習では、期待値の見積もりを現在推定されている値の最大値で置き換えましたが、Sarsa の場合、実際に行動してみたらどうなったかを使って期待値の見積もりを置き換えます。
ですので、Sarsa では現在の価値を更新するためには、エージェントが実際にもう一度行動をおこなう必要があります。
式で書くと次のとおりです:
モンテカルロ法
モンテカルロ法 *6 はQ学習やSarsaとは違い、Q値の更新のときに「次の時点のQ値」を用いません。
代わりに、とにかく何らかの報酬が得られるまで行動をしてみて、その報酬値を知ってから、辿ってきた状態と行動に対してその報酬を分配していきます。
ただし、 は状態 , 行動 を経ることでこれまでに得られた報酬を格納している配列、 は配列に要素を付け足す操作、 は配列の平均をとる操作とします。辿ってきた行動と状態のペアに対してこの更新式に従いQ値を更新していきます。
モンテカルロ法では報酬が得られて初めてQ値を更新することができます。
逆に言えば、報酬が得られるまでQ値を更新することができません。
このことは、Q値が「ある時点でとった行動による即時報酬だけでなく、未来に渡る価値も含む」ことを考えれば当然です。
一方Q学習やSarsaは、「現在推定中のQ値でも、未来に渡る価値を含むはずだ」という前提で、次の時点でのQ値を使って常に更新をおこなっています。Q学習やSarsaでは、 (1)式の特性をうまく活かしているという見方もできますが、その方法だと、遠い未来で得られる報酬の学習は遅くなります。
モンテカルロ法は一度未来を見てから一気にQ値の更新をかけるため、遠い未来の報酬も比較的早く学習できるという特徴があります。
CartPole 問題
CartPole問題とは、強化学習で古くから研究されている単純な環境です。
左右に動くカートの上にポールを立て、倒れないように制御する問題です。
状態 はカートの位置と速度およびポールの角度と角速度、行動aはカートを左右どちらに動かすか、報酬rはどれだけ長い間ポールを立てることができたか、となります。
なお、実験にあたっては、Python のライブラリ Gym を用いています。
Q学習によって CartPole アルファ値の定義 問題をエージェントに学習させてみます。
以下の gif アニメーションは、上から順に初期状態・200回の学習後・400回・600回・800回・1000回、となっています。
少しずつ学習が進み、最終的にはポールをうまく立て続けることができるようになっています。
以下は縦軸に得られた価値 (つまりどれだけ長くポールを立てることができたか)、横軸に学習回数をとったときの学習曲線です:
段々と学習が進んでいる様子が見られます。
Sarsa
Sarsa でも同様に CartPole 問題を学習させてみます。
学習曲線は次のとおりです:
アルファ値の定義
モンテカルロ法
モンテカルロ法でも同様に CartPole 問題を学習させてみます。
学習曲線は次のとおりです:
強化学習の課題と今後
ここまで、強化学習の基礎的なアルゴリズムと簡単なデモを紹介しました。
しかし、今回紹介したQ値に基づくアルゴリズムには大きな課題が存在します。状態行動空間の爆発、と呼ばれるものです。
規模の小さな環境では問題になりませんが、状態や行動が連続値で定義され、その次元も非常に大きいような環境だと、状態と行動の組に対して定義されるQ値を保存するための領域が無限に必要となってしまい、なんらかの工夫をしなければなりません。
AlphaGoで使われているDeep Q-Network(DQN)では、この状態行動空間の爆発に対して、「Q値を直接表現するのではなく、ニューラルネットワークにより近似」することで対処しています *7。
Q値をニューラルネットワークで近似する、というアイデア自体はかなり前からあるものなのですが、これまで実問題ではあまりうまくいっていませんでした。AlphaGoは、囲碁という巨大な環境であっても深層学習技術を応用して学習に成功させたことで、深層学習と強化学習の融合の可能性を大きく世に示しました。
強化学習は、教師付き学習や教師なし学習と比べるとビジネス応用例がまだまだ少ないですが、今まさに大きく発展を遂げている分野です。
少しずつ試行錯誤することで価値を最大化する行動を学習する強化学習は、いわゆる「AI」と呼ばれるモノに最も近いイメージかと思います。
おそらく、今後もっと様々なビジネスへの応用が生まれてくると思います。
αエラー、βエラー、検出力(パワー)の意味を理解する
統計学の基礎知識
こんにちは。管理人のハル(@haru_reha)です。今回はαエラー、βエラー、検出力(パワー)の意味について書いておこうと思います。このテーマを取り上げたのは、サンプルサイズを計算する際に、これらの用語を理解しておく必要があるからです。次回くらいにEZRでサンプルサイズを計算する方法をUPしようと思いますので、その前に用語をざっと確認しておきましょう。
αエラー(1型エラー)とは?
初めにαエラーについてです。αエラーは「1型エラー(または第1種過誤)」とも呼ばれます。
のことです(偽陽性)。
つまりαエラーを起こす可能性が5%だとすると「 100回に5回は本当は差がないのに有意差ありとなる可能性がある 」という解釈になります。
つまり「P値=αエラーを起こす確率」という捉え方もできますね。P値についてもう少し詳しく知りたい方は↓の記事をどうぞ。
αエラーは「 あ(a)わてんぼさんの過ち (本当は差がないのに慌てて差があると判断してしまう)」と考えると覚えやすいです。
βエラー(2型エラー)とは?
つぎにβエラーについてです。βエラーは「2型エラー(または第2種過誤)」とも呼ばれます。
のことです(偽陰性)。
つまりβエラーを起こす可能性が20%の場合は「 100回に20回は本当は差があるのに、有意差なしとなる可能性がある 」という解釈ですね。
βエラーは「 ぼ(b)アルファ値の定義 んやりさんの過ち (本当は差があるのにぼんやりして見過ごしてしまう)」と考えると覚えやすいです。
検出力(パワー)とは?
例えばβエラーを起こす可能性が20%の時は「100%-20%=80%」ですので、検出力は80%ということになります。
を表します(感度)。
以上、αエラー、βエラー、検出力について簡単に説明しました。αとβがごっちゃになって分かりにくいですが、個人的に「あわてんぼさんの過ち」と「ぼんやりさんの過ち」という語句で覚えれば間違えにくいと思っております。
キーワード:αエラー、βエラー、偽陽性、偽陰性、第一種の過誤、第二種の過誤、ベイズ推定 例として、肝臓癌の検査を取り上げてみる。検査結果が100%正しいことはなく、結果には誤りが含まれる。検査の誤りには次の2通りがある。(A) 「肝臓癌ではないのに、肝臓癌である」と判定する誤り。 (B) 「肝臓癌なのに、肝臓癌でない」.
統計検定2級合格の感想と対策
ようやくこの記事を書ける日が来ました。 2020年12月25日に統計検定®2級を受験し、無事に合格しました!! ここまで、本当に長く険しい道のりでした。 試験に合格した感想と対策を、忘れないうちに記しておきます.
研究計画に統計解析の知識が必須である理由
仮説検定の考え方
今回は「仮説検定の考え方」についてです。今回の内容は 『完全独習 統計学入門』という書籍のp90~97の内容をまとめたものです。非常に分かりやすく説明してありましたので、その内容に沿って進めていきます。 引用箇所は全て””に.
感度と特異度について例を用いて分かりやすく理解する
こんばんは。管理人のハルです。 今回は「感度と特異度」についてまとめておきます。 病気Aの検査法の精度は… 理解しやすくするために例を用いて説明しますね。 Aという病気があるとします。最近、Aの新たな検査法が開発されました。そして、新たな.
記述統計と推測統計
お久しぶりです。管理人のハル(@haru_reha)です。 本日は「記述統計と推測統計」について書いてみます。 なるべくイメージがつきやすいよう例をあげて考えてみましょう。 データを集めたら何をするか 例として、私たちが研究を始めて、学会で.
リスクとオッズ【リスク比とオッズ比の違いを分かりやすく】
皆さんこんにちは。管理人のハル(@haru_reha)です。今回は統計学初心者が理解に苦しむであろう「リスクとオッズ」について分かりやすく説明します。 リスクとは まずリスクの方が分かりやすいので先に説明しておきましょう。 リスクとは簡単.
コメント