install 아래 링크를 참고하여 pytorch 를 설치하였다. https://c-juhwan.github.io/posts/m1-pytorch-installation/ M1 맥에서 Pytorch 설치하기 - M1 Native 개요 c-juhwan.github.io setting 소스를 받는다. git clone --recursive https://github.com/deepinsight/insightface.git https://github.com/deepinsight/insightface/tree/master/recognition/_datasets_ 여기에 있는 MS1M-ArcFace 를 다운로드 받는다. GitHub - deepinsight/insightface: State-of-the-art 2D..
얼굴 인식 모델을 만들기 위해 insightface 에서 face recognition 부분의 arc-face 를 선택하여, train 부터 시켜보려고 한다. arc face 는 state of the art face recognition approach 라고 해서 선택하게 되었다. 최첨단 시대로 가봅시다. 네 가지가 있었다. 맘같아서 mxnet 을 하고 싶었다. 그런데 cuda 설치 부분에서 m1을 사용하고 있는 나로써는 설치가 가능하다는 것을 빨리 찾기가 어려웠고, pytorch 는 가능하다는 얘기를 찾은 것 같다. https://github.com/pytorch/pytorch/issues/47702#issuecomment-739442975 GPU acceleration for Apple's M1 c..
brew install opencv 로 설치 후 경로 잘 기억해놓고, xcode로 build settings의 header search path, library search path, other flags path 세 가지 설정해주고 설치 후 보여지는 pkg-config 관련 path 내에서 .pc 파일이 위치한 파일의 이름을 --libs 뒤에 붙이면 된다. 나는 opencv였다. 보여지는 텍스트를 복사 붙여넣기한다. pkg-config --cflags --libs opencv signing&Capabilities 의 disable library validation 체크 main.cpp #include #include int main(int argc, const char * argv[]) { // ins..
arch -arm64 lldb ./your-program References https://stackoverflow.com/questions/71194781/cannot-debug-executable-with-lldb-on-macos-m1-attach-failed-os-kern-invalid Cannot debug executable with lldb on macOS M1: attach failed ((os/kern) invalid argument I am trying to debug a C executable compiled for arm64 on an Apple M1 MacBook Pro, running macOS Monterey. However, when I try to run the program..
part 1 에 이어서 작성합니다. class _RandomWordsState extends State { final _suggestions = []; final _saved = {}; final _biggerFont = const TextStyle(fontSize: 18); void _pushSaved() { Navigator.of(context).push( MaterialPageRoute( builder: (context) { final tiles = _saved.map( (pair) { return ListTile( title: Text( pair.asPascalCase, style: _biggerFont, ), ); }, ); final divided = tiles.isNotEmpty ? List..
원하는 경로에서 flutter create startup_namer 를 입력하고 엔터를 누릅니다. 프로젝트가 만들어집니다. 일단 flutter run 을 하고 chrome (2) 으로 실행시켜 봅니다. 웹에서도 잘 실행됩니다 ㅎㅎ flutter pub add english_words english_words 를 사용해봅니다. final wordPair = WordPair.random(); , Text(wordPair.asPascalCase) 다시 실행해봅니다. flutter run 혹은 실행 시켜 놓은 상태라면, r 을 입력하고 엔터를 칩니다. 하단에 랜덤으로 보여지는 단어가 있음을 확인할 수 있습니다. 맨 아래에 다음과 같이 추가합니다. 아래와 같이 변경합니다. class RandomWords exte..
읽은 이유: Mediapipe Face Mesh 공부 논문 내용: Abstract 하나의 카메라 인풋으로 AR 어플리케이션을 위한 3D mesh 표현을 하기 위해서 end-to-end neural network-based model 을 구현 얼굴 기반의 AR 효과들을 위해 잘짜여진 468개의 정점들 vertices 이 존재. 1. Introduction facial geometry 를 예측하는 것의 문제점: aligning a facial mesh template == face alignment == face registration 보통은 각기다른 의미와 얼굴 컨투어에 의미있는 (일반적으로 68개) 의 landmarks 혹은 keypoint 로 이루어진다. 다른 접근으로 3DMM(3D morphable ..
읽은 이유: Mediapipe face detection 에서 해당 논문을 기반으로 face detection을 사용 논문 내용: Inspired by 가벼운 feature extraction network : MobileNetV1/V2 GPU-friendly anchor scheme : SSD (Single Shot MultiBoxDetector) tie resolution strategy : non-maximum suppression(가장 큰 스코어의 bbox만 남기고 나머지는 제거) 을 대신함 Main contributions Inference speed 와 관련하여: MobileNetV1/V2의 구조와 관련 있는 very compact feature extractor convolutional ne..