tensorflow dnn 예제

train_neural_network라는 새 함수에서 데이터를 전달합니다. 그런 다음 neural_network_model을 통해 해당 데이터의 출력을 기반으로 예측을 생성합니다. 다음으로 비용 변수를 만듭니다. 이것은 우리가 얼마나 잘못되었는지를 측정하고, 가중치를 조작하여 최소화하고자 하는 변수입니다. 비용 함수는 손실 함수와 동의어입니다. 우리의 비용을 최적화하기 위해, 우리는 아담 최적화를 사용합니다, 이는 스토카스틱 그라데이션 하강 과 AdaGrad 같은 다른 사람과 함께 인기있는 최적화, 예를 들어. 이 튜토리얼은 예를 통해, TensorFlow에 쉽게 다이빙을 위해 설계되었습니다. 가독성을 위해 TF v1 및 v2 모두에 대해 설명이 포함된 노트북과 소스 코드가 모두 포함되어 있습니다. 그렇긴 해도, 제공 된 코드는 당신의 편의를 위한 것입니다. 예를 들어 디렉터리 경로를 다음과 같이 설정할 수 있습니다. 메모리 내 데이터. TensorFlow에 대한 명확하고 간결한 예제를 찾으려는 초보자에게 적합합니다. 기존의 `원시` TensorFlow 구현 외에도 최신 TensorFlow API 사례(예: 레이어, 추정기, 데이터 집합 등)도 찾을 수 있습니다.

데이터 집합 API는 많은 일반적인 사례를 처리할 수 있습니다. 예를 들어 Dataset API를 사용하면 대량의 파일 컬렉션에서 레코드를 병렬로 쉽게 읽고 단일 스트림에 조인할 수 있습니다. tf.data.Dataset.batch 메서드는 여러 예제를 수집하고 스택하여 일괄 처리를 만듭니다. 모든 라이브러리에는 코딩 패러다임을 따르는 쓰기 방법, 즉 고유한 “구현 세부 정보”가 있습니다. 예를 들어 scikit-learn을 구현할 때 먼저 원하는 알고리즘의 개체를 만든 다음 기차에서 모델을 빌드하고 테스트 세트에서 예측을 얻을 수 있습니다. 정류 선형 단위 nn.relu() 및 1024 숨겨진 노드. 이 모델은 유효성 검사/테스트 정확도를 향상시켜야 합니다. 테스트 데이터 집합의 정확도는 학습 데이터 집합의 정확도보다 약간 낮습니다. 교육 정확도와 테스트 정확도 간의 이러한 차이는 과적합의 예입니다.

오버피팅은 기계 학습 모델이 학습 데이터보다 새 데이터에서 더 나쁜 성능을 발휘하는 경우입니다. 예측 메서드는 Python을 이터러블으로 반환하여 각 예제에 대한 예측 결과 사전을 생성합니다. 다음 코드는 몇 가지 예측과 그 확률을 인쇄합니다: 프로그램은 학습 로그를 출력하고 테스트 집합에 대한 몇 가지 예측을 출력해야 합니다. 예를 들어 다음 출력의 첫 번째 줄은 모델이 테스트 집합의 첫 번째 예가 Setosa일 확률이 99.6%라고 생각한다는 것을 보여 주며, 이 에 대한 첫 번째 줄은 모델에서 볼 수 있습니다.

Posted in Uncategorized.