1. Trang chủ
  2. » Công Nghệ Thông Tin

➡️150⬅️ machine learning formulas

19 4 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Microsoft Word EQUATIONS FINAL 16 OK docx rubenszmmgmail com http github comRubensZimbres NAÏVE BAYES

                                                                    rubenszmm@gmail.com     http://github.com/RubensZimbres           NAÏVE  BAYES     𝑃 𝑐 𝑎 𝑃(𝑎) 𝑃 𝑎𝑐 =   𝑃(𝑐)     BAYES  OPTIMAL  CLASSIFIER     arg max 𝑃 𝑥 𝑇 𝑃(𝑇|𝐷)         NAÏVE  BAYES  CLASSIFIER     arg max 𝑃 𝑆𝑝𝑜|𝑇𝑜𝑡 𝑃(𝑆𝑜𝑐|𝑆𝑝𝑜)         BAYES  MAP  (maximum  a  posteriori)     ℎ!"# = arg max 𝑃 𝑐|𝑎 𝑃(𝑎)         MAXIMUM  LIKELIHOOD     ℎ!" = arg max 𝑃 𝑐|𝑎         TOTAL  PROBABILITY       𝑇𝑜𝑡𝑎𝑙𝑃 𝐵 = 𝑃 𝐵|𝐴 𝑃(𝐴)   MIXTURE  MODELS     𝑃 𝐵 = 𝑃 𝐵|𝐴 𝑃(𝐴)         MIXTURE  OF  GAUSSIANS   ANOMALY  DETECTION     1 𝑥−𝑥 ! 𝑃 𝑥𝑥 = 𝑒𝑥𝑝 −   𝜎 2𝜋𝜎 !     𝑁! 𝐶! + 𝑁! 𝐶! 𝑍!" =   𝑁! + 𝑁!     𝑃(𝑍!" ) → 0.50       EM  ALGORITHM     𝑃 𝑥 𝑃 𝑥|𝑥 𝐸  𝑠𝑡𝑒𝑝  𝑃 𝑥|𝑥 =   𝑃 𝑥 𝑃 𝑥     𝑃(𝑥|𝑥) 𝑀  𝑠𝑡𝑒𝑝  𝑃 𝑥′ =   𝑛     𝐸  𝑠𝑡𝑒𝑝  𝑃 𝑥|𝑥 = 𝐴𝑠𝑠𝑖𝑔𝑛  𝑣𝑎𝑙𝑢𝑒       𝑀  𝑠𝑡𝑒𝑝  𝑃 𝑥′ = 𝑃(𝐵 = 1|𝐴 = 1, 𝐶 = 0)         LAPLACE  ESTIMATE  (small  samples)     𝐴 + 0.5 𝑃 𝐴 =   𝐴+𝐵+1     BAYESIAN  NETWORKS     𝑡𝑢𝑝𝑙𝑒𝑠  ¬  𝑓𝑜𝑟  𝑦 =   ∧ 𝑦 =       LIMITS     𝑓 𝑥 + ℎ − 𝑓(𝑥) lim   !→! ℎ   ℎ = Δ𝑥 = 𝑥′ − 𝑥         DERIVATIVES     𝜕 ! 𝑥 = 𝑛 𝑥 !!!   𝜕𝑥   𝜕 ! 𝜕𝑦 ! 𝜕𝑦 𝑦 =   𝜕𝑥 𝜕𝑦 𝜕𝑥   PRODUCT  RULE     𝑑 𝑓 𝑥 𝑔 𝑥 = 𝑓′ 𝑥 𝑔 𝑥 + 𝑓 𝑥 𝑔′(𝑥)   𝑑𝑥       𝑑 𝑓(𝑥) 𝑓′ 𝑥 𝑔 𝑥 + 𝑓 𝑥 𝑔′(𝑥) =   𝑑𝑥 𝑔(𝑥) 𝑔(𝑥)!   𝑑 𝑑 2𝑓 𝑥 = 𝑓 𝑥   𝑑𝑥 𝑑𝑥     𝑑 𝑑 𝑑 𝑓 𝑥 +𝑔 𝑥 = 𝑓 𝑥 + 𝑔 𝑥   𝑑𝑥 𝑑𝑥 𝑑𝑥     𝑑 𝑑 𝑑 𝑓 𝑥 + 2𝑔 𝑥 = 𝑓 𝑥 + 𝑔 𝑥   𝑑𝑥 𝑑𝑥 𝑑𝑥     CHAIN  RULE     𝑑 𝑔 𝑓 𝑥 = 𝑔! 𝑓(𝑥) 𝑓′(𝑥)   𝑑𝑥   solve  f(x)  apply  in  g’(x)         VARIANCE     (𝑥 − 𝑥)! 𝑉𝑎𝑟 =   𝑛−1       STANDARD  DEVIATION     𝑉𝑎𝑟𝑖𝑎𝑛𝑐𝑒       COVARIANCE       𝑥 − 𝑥 (𝑦 − 𝑦) 𝐶𝑜𝑣 =   𝑛−1       CONFIDENCE  INTERVAL     𝜎 𝑥 ± 1.96   𝑛       CONFIDENCE  INTERVAL  ERROR       𝑒𝑟𝑟𝑜𝑟(1 − 𝑒𝑟𝑟𝑜𝑟)   𝑁       CHI  SQUARED     (𝑦 − 𝑦)! 𝛿 ! 𝐶ℎ𝑖 = =   𝑦 𝑦     𝑒𝑟𝑟𝑜𝑟 ± 1.96   𝑅! = R  SQUARED       𝑛 𝑥𝑦 − 𝑥 𝑛 𝑥 ! − ( 𝑥)! 𝑛 𝑦 𝑦 ! − ( 𝑦)!     LOSS     𝐿𝑜𝑠𝑠 = 𝐵𝑖𝑎𝑠 ! + 𝑉𝑎𝑟𝑖𝑎𝑛𝑐𝑒 ! + 𝑁𝑜𝑖𝑠𝑒       SUM  OF  SQUARED  ERRORS     (𝑦 − 𝑦)! 𝐸𝑤 =       COST  FUNCTION     (𝑦 − 𝑦)! 𝐽 𝜃! ≔ 𝜃! − 𝜂           GINI  COEFFICIENT       (𝑁 + − 𝑥) 𝑦! 𝑁 + − 𝑦 𝐺𝑖𝑛𝑖 =   𝑁     NUMBER  OF  EXAMPLES     log(𝑁! ) + log  (𝛿 ) 𝑚≥   𝜖   𝑦 𝑤ℎ𝑒𝑟𝑒  𝜖 =   ∧  𝛿 = 𝑦 − 𝑦   𝑦   MARKOV  CHAINS     𝑃!!! 𝑋 = 𝑥 = 𝑃! 𝑋 = 𝑥 𝑇(𝑥 → 𝑥)   !   t-­‐SNE             K  NEAREST  NEIGHBOR     𝑓(𝑥) 𝑓 𝑥 ←   𝑘     𝐷𝐸 𝑥! , 𝑥! =   𝑥! − 𝑥! ! ||𝑥! − 𝑥! ||! exp   − 2𝜎 ! 𝐶𝑜𝑛𝑑𝑖𝑡 𝑃𝑟𝑜𝑏 =   ||𝑥! − 𝑥! ||! exp   − 2𝜎 !     ||𝑦! − 𝑦! ||! exp   − 2𝜎 ! 𝐶𝑜𝑛𝑑𝑖𝑡 𝑃𝑟𝑜𝑏 =   ||𝑦! − 𝑦! ||! exp   − 2𝜎 !     (!! ) 𝑃𝑒𝑟𝑝𝑙𝑒𝑥𝑖𝑡𝑦 = 2!(!! )       where:       + (𝑦!" − 𝑦!" )!       WEIGHTED  NEAREST  NEIGHBOR       𝑓(𝑥) 𝑓 𝑥 = 𝐷(𝑥! 𝑥! )!   𝐷(𝑥! 𝑥! )!       PRINCIPAL  COMPONENTS  ANALYSIS     𝑥′ = 𝑥 − 𝑥     𝐸𝑖𝑔𝑒𝑛𝑣𝑎𝑙𝑢𝑒 = 𝐴 − 𝜆𝐼     𝐻 𝑃! = − 𝑝!|!  𝑙𝑜𝑔! 𝑃!|!   !   𝐸𝑖𝑔𝑒𝑛𝑣𝑒𝑐𝑡𝑜𝑟 = 𝐸𝑛𝑔𝑒𝑛𝑣𝑎𝑙𝑢𝑒 [𝐴]       𝑓 𝑥 = 𝐸𝑖𝑔𝑒𝑛𝑣𝑒𝑐𝑡𝑜𝑟 ! [𝑥!! 𝑥!" ]             COSINE  DISTANCE       𝑢 𝑣 𝐶𝑜𝑠 =   𝑢 𝑣   TF-­‐IDF           𝑤!" = 𝑡𝑓!" 𝑙𝑜𝑔 𝑁   𝑑𝑓!       LINEAR  REGRESSION       ! 𝑥! 𝑥! 𝑦 − 𝑥! 𝑥! 𝑥! 𝑦 𝑚! =   𝑥!! 𝑥!! − ( 𝑥! 𝑥! )!     𝑏 = 𝑦 − 𝑚! 𝑥! − 𝑚! 𝑥!       ! 𝑓 𝑥 = 𝑚! 𝑥! + 𝑏   !!!     𝐴 = 𝑋! 𝑋     !! where  𝐴 = 𝑋 ! 𝑌   𝑏   𝑚       LOGISTIC  REGRESSION       𝑃 𝑂𝑑𝑑𝑠  𝑅𝑎𝑡𝑖𝑜 = 𝑙𝑜𝑔 = 𝑚𝑥 + 𝑏   1−𝑃   𝑃 = 𝑒 !"!!   1−𝑃       𝑦 log  (𝑦) + − 𝑦 log  (1 − 𝑦) 𝐽 𝜃 =−   𝑛   𝑤ℎ𝑒𝑟𝑒  𝑦 =   + 𝑒 !"!!   𝑓𝑜𝑟  𝑦 =     ∧  𝑦 =     −2𝐿𝐿 →       𝑥  ! ~  𝑥!   ≠ 𝑥! ′  ~  𝑥! ′       𝑝 𝑚𝑥 + 𝑏 =   1−𝑝     𝑚𝑥 + 𝑏 𝑃 𝑎𝑐 =   𝑚𝑥 + 𝑏 +     DECISION  TREES     ! 𝐸𝑛𝑡𝑟𝑜𝑝𝑦 = −𝑃 log  (𝑃)   !!!       𝐼𝑛𝑓𝑜𝐺𝑎𝑖𝑛 = 𝑃! −𝑃!! log 𝑃!! − 𝑃!(!!!) − log  (𝑃!(!!!) )         RULE  INDUCTION     𝐺𝑎𝑖𝑛 = 𝑃 [ −𝑃!!! log  (𝑃) − (−𝑃! log  (𝑃))]     RULE  VOTE     Weight=accuracy    coverage       ENTROPY       𝐻 𝐴 =− 𝑃 𝐴 𝑙𝑜𝑔𝑃(𝐴)       JOINT  ENTROPY       𝐻 𝐴, 𝐵 = − 𝑃 𝐴, 𝐵 𝑙𝑜𝑔𝑃(𝐴, 𝐵)         CONDITIONAL  ENTROPY       𝐻 𝐴|𝐵 = − 𝑃 𝐴, 𝐵 𝑙𝑜𝑔𝑃(𝐴|𝐵)         MUTUAL  INFORMATION       𝐼 𝐴, 𝐵 = 𝐻 𝐴 − 𝐻(𝐴|𝐵)         EIGENVECTOR  CENTRALITY  =  PAGE  RANK     1−𝑑 𝑃𝑅(𝐵) 𝑃𝑅(𝑛) 𝑃𝑅 𝐴 = −d +   𝑛 𝑂𝑢𝑡(𝐵) 𝑂𝑢𝑡(𝑛)   where  d=1  few  connections     RATING     𝑅 = 𝑅! + 𝛼 𝑤!" = 𝑤! (𝑅!" − 𝑅! )       SIMILARITY     ! 𝑅!" − 𝑅! (𝑅!" − 𝑅! ) ! 𝑅!" − 𝑅! ! (𝑅!" − 𝑅!   )!           CONTENT-­‐BASED  RECOMMENDATION     !"#$$ ! 𝑅𝑎𝑡𝑖𝑛𝑔 = 𝑥! 𝑦!   !!! !!!       COLLABORATIVE  FILTERING       𝑅!" = 𝑅! + 𝛼   𝑅!" − 𝑅!   ! 𝑅!" − 𝑅! (𝑅!" − 𝑅! ) ! 𝑅!" − 𝑅! ! (𝑅!" − 𝑅! )!   LOGIT     log 𝑜𝑑𝑑𝑠 = 𝑤𝑥 + 𝑏 = 𝑙𝑜𝑔       BATCH  GRADIENT  DESCENT       (𝑦 − 𝑦)! 𝑥 𝐽 𝜃! ≔ 𝜃! ± 𝜂   2𝑛     STOCHASTIC  GRADIENT  DESCENT       𝐽 𝜃! ≔ 𝜃! ± 𝜂 (𝑦 − 𝑦)! 𝑥             NEURAL  NETWORKS     ! 𝑓 𝑥 = 𝑜 = 𝑤! +     𝑤! 𝑥!   !!!   𝑝   1−𝑝       SOFTMAX  NORMALIZATION   𝑒 !"!! 𝑆(𝑓 𝑥 ) =   𝑒 !"!!       CROSS  ENTROPY     𝐻(𝑆 𝑓 𝑥 , 𝑓 𝑥 =− 𝑓 𝑥 𝑙𝑜𝑔𝑆(𝑓 𝑥 )       LOSS     𝐻(𝑆(𝑓 𝑥 , 𝑓(𝑥)) 𝐿𝑜𝑠𝑠 =   𝑁         L2  REGULARIZATION     𝜆 𝑤 ! 𝑤 ← 𝑤 − 𝜂 𝛿 𝑥 +             SIGMOID       + 𝑒 !(!"!!)   RADIAL  BASIS  FUNCTION       ℎ 𝑥 =𝑒   (!!!)! ! !! AVOID  OVERFIT  NEURAL  NETWORKS  L2     (𝑡 − 𝑜)! !"# !"# 𝑤= + F 𝑤!"!       where  F=penalty         BACKPROPAGATION       𝛿! = 𝑜! − 𝑜! (𝑡 − 𝑜! )           PERCEPTRON     ! 𝑓 𝑥 = 𝑠𝑖𝑔𝑛 !!!     𝛿! = 𝑜! − 𝑜! 𝑤! 𝑥!"   PERCEPTRON  TRAINING     𝑤! ← 𝑤! + ∆𝑤!     ∆𝑤! = 𝜂 𝑡 − 𝑜 𝑥       ERROR  FOR  A  SIGMOID       𝜖= 𝑡 − 𝑜 𝑜 − 𝑜 𝑥           𝐽! =   ! !!! 𝑤!" 𝛿!       𝑤!" ← 𝑤!" + 𝜂!" 𝛿! 𝑥!"     𝑤! = + (𝑡 − 𝑜! )       ∆𝑤!" (𝑛) = 𝜂 𝛿! 𝑥!" + 𝑀 ∆𝑤!" (𝑛 − 1)     where  M=momentum       NEURAL  NETWORKS  COST  FUNCTION     !! ! 𝜆 !!!!! !!! !!! 𝑡! log 𝑜 + − 𝑡 log  (1 − 𝑜) + 𝑁 2𝑁   !!!! ! !!! 𝜃!"       MOMENTUM  Υ       𝜃 = 𝜃 − (𝛾𝑣!!! + 𝜂 ∇𝐽 𝜃 )         NESTEROV       𝜃 = 𝜃 − (𝛾𝑣!!! + 𝜂 ∇𝐽(𝜃 − 𝛾𝑣!!! ))       ADAGRAD       𝜂 𝜃=𝜃− ∇𝐽(𝜃)   𝑆𝑆𝐺!"#$ + 𝜖   ADADELTA     𝑅𝑀𝑆[∆𝜃]!!! 𝜃=𝜃−   𝑅𝑀𝑆∇𝐽(𝜃)     𝑅𝑀𝑆 Δ𝜃 = 𝐸 ∆𝜃 ! + 𝜖       RMSprop       𝜂 𝜃=𝜃− ∇𝐽(𝜃)   𝐸 𝑔! + 𝜖       ADAM     𝜂 𝜃=𝜃− 𝑚   𝑣+𝜖     𝛽! 𝑚!!! + − 𝛽! ∇𝐽(𝜃) 𝑚=   − 𝛽!     𝛽! 𝑣!!! + − 𝛽! ∇𝐽(𝜃)! 𝑣=   − 𝛽!     RESTRICTED  BOLTZMANN  MACHINES       𝐸 𝑣, ℎ = − 𝑣! ℎ! 𝑤!"     where  v  =  binary  state  visible     h  =  binary  state  hidden       𝑒 !!(!,!) 𝑝 𝑣, ℎ =   !!(!,!) !" 𝑒     !!(!,!) !𝑒 𝑝 𝑣 =   !!(!,!) !,! 𝑒     𝜕 log 𝑝 𝑣 =< 𝑣!  ℎ! >! −< 𝑣!  ℎ! >!   𝜕𝑤𝑖𝑗     𝜕 ∆𝑤!" = 𝜂 log 𝑝(𝑣)   𝜕𝑤!" ∆𝑤!" = 𝜂 (< 𝑣!  ℎ! >! −< 𝑣!  ℎ! >! )           CONVOLUTIONAL  NEURAL  NETWORKS     (𝑁 − 𝐹) 𝑂𝑢𝑡𝑝𝑢𝑡  𝑆𝑖𝑧𝑒 = +   𝑆       where:  N=  input  size   F  =  filter  size   S  =  Stride  steps   Convolution2D(N  filters,  filter_size,  filter_size…)       SUPPORT  VECTOR  MACHINES     𝑓 𝑥 = 𝑠𝑖𝑔𝑛 𝜆 𝑦 𝐾(𝑥! ∙ 𝑥! )     𝐾 𝑥! ∙ 𝑥! = 𝑒𝑥𝑝 − 𝑥! − 𝑥! ! + (𝑦! − 𝑦! )! 𝑤𝑖𝑑𝑡ℎ!!"#   𝜆 → ∇𝐿 =         𝑦 =   ∧ 𝑦 = −1       𝐷𝑜𝑡𝑃𝑟𝑜𝑑𝑢𝑐𝑡 = 𝑥! 𝑐𝑜𝑠𝜃       ! 𝑐𝑜𝑠 𝜃 + 𝑠𝑒𝑛! 𝜃 =       𝑠𝑒𝑛𝜃 = 𝑥! − 𝑥! !   𝑥! ∙ 𝑥! =     (𝑥! ! + 𝑦! ! ) − + (𝑦!" − 𝑦!" )! 𝑥!   𝑥! − 𝑥! ! + (𝑦! − 𝑦! )!   𝑥! ! + 𝑦! !     SUPPORT  VECTOR  REGRESSION     𝑌 = 𝑤 < 𝑥! ∙ 𝑥! > +𝑏       𝑦 − (𝑤 < 𝑥! ∙ 𝑥! > +𝑏) ≤ 𝜀   𝑤 < 𝑥! ∙ 𝑥! > +𝑏 − 𝑦 ≤ 𝜀       RIDGE  REGRESSION  -­‐  REGULARIZATION     𝑦 − 𝑦 ! 𝜆 𝑚 𝑚≔𝑚− −   𝑁 𝑁     𝜆 𝑦 = 𝜆 𝑚𝑥 + 𝑏 −   𝑁     LASSO  REGRESSION    -­‐  REGULARIZATION           (𝑦 − 𝑦)! 𝜆 𝑏 𝑏≔ +   𝑁 𝑁   𝑚 →     𝜆 𝑦 = 𝑚𝑥 + 𝜆 𝑏 +   𝑁         SKEWNESS     Skewness  <  1         KOLMOGOROV  SMIRNOV     Normal  sig  >  .005         NON  PARAMETRIC     T  test  =  Normal       Test  U  Mann  Whitney  sig  <  .05       CRONBACH     >  .60  .70       MEDIAN     𝑀𝑎𝑥 − 𝑀𝑖𝑛        t  TEST     𝑥! − 𝑥! − (𝜇! − 𝜇! ) 𝑡=   𝑥! − 𝑥!   Difference  significant  sig  <  .05     t  TEST  2  SAMPLES     Levene  Variância     ANOVA  +  3     𝑉𝑎𝑟𝑖𝑎𝑛𝑐𝑒  𝑏𝑒𝑡𝑤𝑒𝑒𝑛  𝑔𝑟𝑜𝑢𝑝𝑠 𝐹=   𝑉𝑎𝑟𝑖â𝑛𝑐𝑖𝑎  𝑖𝑛𝑠𝑖𝑑𝑒  𝑔𝑟𝑜𝑢𝑝 Sig  <  .05   TOLERANCE       Tolerance  >  .1     𝑇𝑜𝑙𝑒𝑟𝑎𝑛𝑐𝑒 =   𝑉𝐼𝐹     VARIANCE  INFLATION  FACTOR     VIF    15%         DISCRIMINANT  ANALYSIS       Box  M  sig  <  .05  reject  H0       Wilk’s  Lambda  sig  <  .05       𝑥  ! ~  𝑥!   ≠ 𝑥! ′  ~  𝑥! ′     1 𝑥−𝑥 𝑃 𝑥𝑥 = 𝑒𝑥𝑝 − 𝜎 2𝜋𝜎 !     𝑁! 𝐶! + 𝑁! 𝐶! 𝑍!" =   𝑁! + 𝑁!       ERROR  MARGIN     𝜎 1.96     𝑁 ACCURACY     Confidence  Interval  ~  P  value         HYPOTHESES  TESTING     P  value  <  .05       TRANSFORMATION  OK     𝑥 <   𝜎       !       MULTICOLLINEARITY     Correlation  >  .90     VIF    .1       SUM  OF  SQUARES  (explain)     𝑆𝑆!"#!"$$%&'   (𝑁 − 𝑐𝑜𝑒𝑓) 𝐹!"#$% =   𝑐𝑜𝑒𝑓 −   𝑆𝑆!"#$%&'(# MANHATTAN  DISTANCE  L     𝑀𝑎𝑛ℎ = |𝑥! − 𝑥! | + |𝑦! − 𝑦! |     NET  PRESENT  VALUE     𝑃! = 𝑃! 𝜃 !     𝑃! = 𝑃! 𝜃 !!     ! NPV = investment + !!!   NPV=0  (IRR)         MARKOV  DECISION  PROCESS           STANDARD  ERROR  ESTIMATE  (SEE)       𝑆𝐸𝐸 = 𝑆𝑢𝑚𝑆𝑞𝑢𝑎𝑟𝑒𝑑𝐸𝑟𝑟𝑜𝑟𝑠   𝑛−2     𝑆𝐸𝐸 = 𝑀= 𝑈! = 𝑅! + 𝛿   max ! 𝑇 𝑠, 𝑎, 𝑠′ 𝑈(𝑠′)   !   𝜋! = argmax 𝑇 𝑠, 𝑎, 𝑠′ 𝑈(𝑠′)   ! 𝑦)! (𝑦 −   𝑛−2     MAHALANOBIS  DISTANCE   same  variable     𝑐𝑎𝑝𝑖𝑡𝑎𝑙   (1 + 𝑟𝑎𝑡𝑒)! ! 𝑇 𝑠, 𝑎, 𝑠 ! max 𝑄(𝑠 ! , 𝑎′)   𝑄!,! = 𝑅! + 𝛿   max !!   (𝑥! − 𝑥! )!   𝜎!     !  ! ! 𝑄!,! ←! 𝑅! + 𝛿   max 𝑄 𝑠 ! , 𝑎′           ! ARIMA  ~  NPV     𝐵! 𝑌! = 𝑌!!!  (Backward  Shift  Operator)     𝐵! 𝑌 = 𝐵 𝐵𝑌! = 𝐵 𝑌!!! = 𝑌!!!     ARIMA(1,1,1):       AR  =  number  autoregressive  terms     B=number  non-­‐seasonal  needed  for  stationary     MA=number  lagged  errors     − 𝜙! 𝐵 − 𝐵 𝑌! = − 𝜃! 𝐵 𝑒!     where   − 𝜙! 𝐵 =AR  (Autoregression)     and   − 𝜃! 𝐵 =MA  (Mean  Average)     and  e=noise       PROBABILITY  (coins)       𝑃(𝑎) 𝑃 𝑎 =   𝑃(𝐴)         FREQUENTIST       𝑚 𝑠𝑢𝑐𝑒𝑠𝑠𝑜𝑠 𝑒𝑣𝑒𝑛𝑡𝑜𝑠 lim = = = !! ỗ AXIOMATIC       𝑃(𝐴) ≥     𝑃(𝐴, 𝐵, 𝐶) =         PROBABILITY  THEOREMS       JOIN  =  A  or  B     𝑃(𝐴𝑈𝐵)!"#$%&!'( = 𝑃 𝐴 + 𝑃(𝐵)       𝑃(𝐴𝑈𝐵)!"#  !"#$%&!'( = 𝑃 𝐴 + 𝑃 𝐵 − 𝑃(𝐴 ∩ 𝐵)       𝑃(𝐴𝑈𝐵𝑈𝐶)!"#  !"#$%&!'( = 𝑃 𝐴 + 𝑃 𝐵 + 𝑃 𝐶 − 𝑃 𝐴 ∩ 𝐵 − 𝑃(𝐴 ∩ 𝐶) − 𝑃(𝐵 ∩ 𝐶) − 𝑃(𝐴 ∩ 𝐵 ∩ 𝐶)     COMPLEMENTARY  EVENT       𝑃 Ã = − 𝑃(𝐴)         MARGINAL  PROBABILITY     𝑃(𝐴 = 𝑎) 𝑃 𝑎 =   𝑃(𝐴)               PROBABILITY  A  and  B     𝑃(𝐴 ∩ 𝐵) 𝑃 𝐴  𝑒  𝐵 =   𝑃(𝐵)       CONDITIONAL  PROBABILITY       𝑃 𝐴 𝐵 !"#$%$"#$"&' = 𝑃(𝐴)       TOTAL  PROBABILITY  (jars)     𝑃 𝐵 = 𝑃 𝐴∩𝐵 = 𝑃 𝐴 𝑃(𝐵|𝐴)         PROBABILITY  k  SUCCESS  in  n  TRIALS     𝑛 𝑃 𝑘  𝑖𝑛  𝑛 = 𝑝! (1 − 𝑝)!!!   𝑘   INTEGRALS     ! 𝐹 𝑏 − 𝐹 𝑎   ! BAYES  (52  cards  ,  cancer)       𝑃(𝐴 ∩ 𝐵) 𝑃 𝐵 𝐴 𝑃(𝐴) 𝑃 𝐴𝐵 = =   𝑃(𝐵) 𝑃(𝐵)     BINOMIAL  DISTRIBUTION  (0,1  success)       𝑠𝑎𝑚𝑝𝑙𝑒  𝑠𝑝𝑎𝑐𝑒 𝑃 𝐷 = 𝑃 𝑠 ! (1 − 𝑃 𝑠 )!!!   𝑠𝑢𝑐𝑒𝑐𝑠𝑠   𝑠𝑎𝑚𝑝𝑙𝑒  𝑠𝑝𝑎𝑐𝑒 𝑃 𝐷 = 𝑃 𝑠 ! (𝑃 𝑠 )!!!   𝑠𝑢𝑐𝑒𝑐𝑠𝑠 𝑃 𝐷 = 𝑐! 𝑃 𝑎 ! (1 − 𝑃 𝑎 )!!!   𝑎! 𝑐 − 𝑎 !     !   !     1 𝑥 ! 𝑑𝑥 = 𝑥 ! = 2! − 1!   3   PRODUCT  RULE       𝑐 𝑓′ 𝑥 𝑑𝑥 = 𝑐 𝑓′ 𝑥 𝑑𝑥           CHAIN  RULE       𝑓 𝑥 + 𝑔 𝑥 𝑑𝑥 = 𝑓 𝑥 𝑑𝑥 + 𝑔 𝑥 𝑑(𝑥)       INTEGRATION       Δ𝑥 = 𝑓′ 𝑥 Δ𝑥   𝑁→∞     DIFFERENTIATION       𝑓 𝑎 + Δ𝑥 − 𝑓(𝑎) lim   !→! Δ𝑥   LINEAR  ALGEBRA     ADDITION       2 2 + =       SCALAR  MULTIPLY       2 6 3∗ =   15     MATRIX  VECTOR  MULTIPLICATION     Rows  x  Columns     x  Vetor:  Column  A  =  Rows  B             𝐴!,! ∗ 𝐵!,! = 𝐶!,!   =   ∗ 2     5 ∗ =     OR     1 ∗ = ∗ + ∗ + ∗ = 5   0   x  Matrix:  Column  A  =  Rows  B   Rows  A  =  Column  B     𝑨𝟐,𝟏 = 𝟐𝒏𝒅  𝒓𝒐𝒘  𝒙  𝟏𝒂  𝒄𝒐𝒍𝒖𝒎𝒏   3 24 ∗ =   14 37     ∗ = 12 30               IMPORTANT     𝑨𝟐,𝟑 = 𝟐𝒂  𝒓𝒐𝒘  𝒙  𝟑𝒂  𝒄𝒐𝒍𝒖𝒎𝒏       0 −3 ∗ =   0   𝐴!,! 𝐴!,! 𝐴!,! = 𝐴!,! 𝐴!,! 𝐴!,! = −2   𝐴!,! 𝐴!,! 𝐴!,!     PERMUTATION     LEFT=exchange  rows     𝑎 𝑏 𝑐 𝑑 ∗ =   𝑐 𝑑 𝑎 𝑏   RIGHT=exchange  columns     𝑎 𝑏 𝑏 𝑎 ∗ =   𝑐 𝑑 𝑑 𝑐       IDENTITY     0   0         DIAGONAL     0   0     TRANSPOSE     !  𝐴 =   6     PROPERTIES       Not  commutative   𝐴 ∗ 𝐵 ≠ 𝐵 ∗ 𝐴       Associative   𝐴 ∗ 𝐵 ∗ 𝐶 = 𝐴 ∗ (𝐵 ∗ 𝐶)     𝐴=       Inverse  (only  squared)     𝐴!! ≠   𝐴   𝐴!! 𝐴 = 𝐼 =           DETERMINANT       = 1.2 − 3.4 = −10       = 1.5.9 + 4.8.3 + 7.2.6 − 7.5.3 − 1.8.6 − 4.2.9       DEMAND  ELASTICITY     (𝑄! − 𝑄! ) (𝑃! + 𝑃! ) 𝜌=   (𝑄! + 𝑄! ) (𝑃! − 𝑃! ) ...

Ngày đăng: 09/09/2022, 08:46

Xem thêm: