목록< Index > (317)
엔지니어가 되고 싶은 공돌이
1. 1. 함수(Function) - 함수(Function, f: A -> B): Set A -> Set B로 가는 관계가 있을 때, Set A의 모든 원소 a에 대해 Set B의 원소 b하나와만 대응되는 관계. - 정의역(Domain, dom(f)): Set A. - 공역(Codomain, codom(f)): Set B. - 치역(Range, ran(f)): A의 원소와 대응하는 B의 원소들의 모음(f(x)의 모음). - 독립변수(Independent Variable): 함수 f의 Domain에 속하는 원소. - 종속변수(Dependent Variable): 함수 f의 Range에 속하는 원소. - xy평면의 곡선이 함수이면 y축에 평행한 직선이 곡선과 많아봐야 한점에서 만나게 된다. - 우함수(짝..
14. 1. 리차드슨 외삽법(Richardson Extrapolation) - Richardson Extrapolation: f’(x)의 오차를 O(h2)[Central Diffenence Formula]에서 O(h4)로 향상 시켜서 수렴속도를 가속화 시키는 방법이다. 14. 2. 수치적분(Numerical Integration) - 수치적분법은 정적분을 대수적으로 구하기 어려울 때 사용한다. - f(x)는 넓이를 구하고자 하는 함수이고, w(x)(w(x) > 0)는 가중치함수(Weighting Function)이다. - 구간 [a, b]를 n+1등분하여 Integral의 근사값을 구하면 다음과 같다. - 위 방법을 수치적분이라 부른다. 여기서 xi는 마디점(node), wi(weight)..
13. 1. 테일러 수치미분법(Talyor’s Numerical Differentiation) - 전향수치미분식(Forward Diffenence Formula): {f(x + h) – f(x)} / h -> O(h). - 후향수치미분식(Backward Diffenence Formula): {f(x) – f(x - h)} / h -> O(h). - 중앙수치미분식(Central Diffenence Formula): {f(x + h) – f(x - h)} / 2h -> O(h2). 중앙수치미분식으로 구한 근사값이 나머지 두 방법보다 더 빨리 참값에 근접한다. - h의 크기를 계속 줄여나가면서 근사값을 참값에 근접시킨다. - f(x)를 테일러 정리로 표현하면 - 2차 도함수의 중앙수치미분식(Cent..
12. 1. 스플라인 함수(Spline Function) - Spline Function: 주어진 구간을 여러 개의 소구간으로 나누고, 각 소구간을 차수가 낮은 다항식으로 표현한 후 각 소구간을 연속적으로 연결한 함수. - 1st Degree Spline Function. [a, b]를 [ti , ti+1]으로 나누고 Si(x)를 Linear Polynomial으로 구한 뒤 연결한다. - 2nd Degree Spline Function. [a, b]를 [ti , ti+1]으로 나누고 Si(x)를 Quadratic Polynomial으로 구한 뒤 연결한다. 이 때 S(x)와 S’(x)는 연속이어야 한다. - t는 나누어진 구간을, y는 해당 t에서의 함수값을, z는 초기값으로 주어지고 이후..
11. 1. 뉴턴의 분할차분법(Newton’s Interpolator Divided Difference Formula) - Differences between Lagrange interpolation and Newton interpolation. 1) 같은 점을 지나는 Lagrange interpolation과 Newton interpolation은 같다. 2) 한 점이 추가되면 Lagrange interpolation은 처음부터 구해야하지만 Newton interpolation은 이전의 식에 추가만 하면 된다. 3) Newton interpolation은 Lagrange interpolation보다 계산량이 적다.
10. 1. 라그랑주 보간법(Lagrange Interpolation) - Interpolation: 주어진 자료를 만족하는 함수 P(x)를 찾고, 자료에 없는 새로운 점 x_bar 에서 기대값 P(x_bar) 를 찾는 방법. 1) 서로 다른 n + 1개의 점을 지나는 n차 다항식(nth Degree Polynomial)은 단 1개 존재한다. (x0, y0), (x1, y1)으로 유일한 1차 다항식을 구할 수 있다. (x0, y0), (x1, y1), (x2, y2) 으로 유일한 2차 다항식을 구할 수 있다. 2) 서로 다른 n + 1개의 점을 지나는 n차 보간 다항식(nth Degree Interpolation Polynomial)은 - 라그랑주 보간법의 장단점(pros a..
9. 1. 뉴턴법(Newton Method) - Newton Method는 초기값이 근에 충분히 가까이 있다면 항상 수렴한다. 그러나 초기값이 멀리 떨어져 있다면 수렴이 보장되지 않고 발산하거나 진동할 수 있다. 9. 2. 할선법(Secant Method) - Secant Method: f’(x) 대신 xn 과 xn-1 의 평균변화률을 이용한다. - 2개의 초기값이 필요하고, Newton Method에 비해 수렴속도가 느리다. - 초기값이 근에 가까이 있지 않다면 수렴이 보장되지 않는다. 9. 3. 고정점 반복법(Fixed Point Iteration) - f(x) = 0의 해를 구하는 문제를 여러가지 방법으로 적당한 함수 g(x)(기존 f(x)에서 x에 대하여 정리)를 택하여서 x = g(..
8. 1. 이분법(Bisection Method) - 5차 이상의 방정식은 그 미만의 방정식들처럼 대수적으로 해를 구할 수 없다. 일반적으로 근사해를 구해서 사용한다. - 중간값 정리(Intermediate Value Theorem): 함수 f(x)가 [a, b]에서 연속이고, f(a)f(b) - Bisection Method Algorithm. f(a)f(b) for n = 1, 2, …. 1) c = (a + b) / 2. 2) 만약 | f(c) | ≤ ε or |b - c| ≤ ε 이면 반복을 중지한다. 3) f(a)f(c) ≤ 0 이면 a = a, b = c 로 정한다. f(a)f(c) > 0 이면 a = c, b = b 로 정한다. 8. 2. 오차조정법(Re..
7. 1. 고유값과 고유벡터(Eigenvalue and Eigenvector) - Ax = λx 를 만족하는 0이 아닌 벡터가 존재하면, Scalar λ를 A의 고유값(Eigenvalue)라 부르고, x를 λ에 대응하는 A의 고유벡터(Eigenvector)라 부른다. - 고유공간(Eigenspace): 영 벡터와 고유값 λ에 대응하는 모든 고유벡터의 집합. 1) 고유값 계산(Eigenvalue Calculation). - 고유방정식(= 특성방정식, Characteristic Equation): det(A - λI) = 0. - 고유방정식의 해가 Eigenvalue이다. 2) 고유벡터 계산(Eigenvector Calculation). - (A - λiI)x = 0에 대응하는 벡터 x. -..
6. 1. 야코비 반복법(Jacobi Method) - 반복법(Iteration Method): Ax = b 에서 A = N – P 이고, || N-1P || (0) 에 대하여 Nx(k) = Px(k-1) + b 의 해 x(k) 는 Ax = b의 해에 수렴한다. - 행렬의 LDU 분해(LDU Decomposition of Matrix): A 행렬을 Lower Triangular Matrix(L), Diagonal Matrix(D), Upper Triangular Matrix(U)의 합으로 나타낼 수 있다. - Jacobi Method. 6. 2. 가우스-사이델 반복법(Gauss-Seidel Method) - 일반적으로 Gauss-Seidel Method 가 Jacobi Method 보다 더 빨리..