답변 감사합니다.
그러면 딥 러닝은 factor(글에서는 feature)의 coefficient와 다뤄야 할 factor의 종류까지 체계화시켜서 스스로 조절하는 것이고,
머신 러닝은 딥 러닝을 포함해서 주어진 데이터의 패턴으로터 데이터 예측률을 향상시키는 모든 방법이라고 보면 되나요?
예를 factor들을 이미 고정시킨 상태에서 데이터를 넣어서 factor의 coefficient만 변하게 하는 알고리즘은, 딥 러닝은 아니지만 머신 러닝이라고 볼 수 있나요?
그리고 혹시 크기가 n인 데이터 (array, list 등의 object)를 sort하는 방법의 시간복잡도는 항상 O(n log n) 이상이라고 하는데 이 부분 증명하는 거에 대한 힌트 좀 주실 수 있을까요? (솔루션을 직접 보기는 좀 그렇고, 어떤 식으로 생각을 해야 이런 것을 증명할 수 있을까요..)
일단 제가 지금 생각하고 있는 건 이렇게 돼요.
일단 크기 n의 array에서의 sort를 추상화시켜서 생각해보면 이진 트리에 있는 데이터의 sort로 볼 수 있고, (이것도 증명해야 겠지만요...) 그 다음에는
tree에 있는 두 개의 exchange는 시간 복잡도가 O(1)이라는 것까지는 괜찮은 것 같고, 그 다음부터 좀 문제인데
여기서 만약 주어진 자료의 모든 순서를 알아 냈다면 그 다음에는 O(n)의 시간 복잡도로 sort가 이루어지고 그렇다면, 주어진 자료의 모든 순서를 알아내는 데에 최소 O(n*log n)의 시간이 걸린다는 것을 증명하면 되지 않을까 생각했는데, 혹시 수학적 귀납법을 사용하면 될까요?