본문 바로가기

사이트

[Swift] 002_Get ready to start(준비하기) for beginners Swift를 공부하기 위해서는 필요한 "도구"를 준비해야 한다. 당연히 코딩을 해보고 실행하고 결과를 확인하려면 OS X이 설치된 Mac 컴퓨터가 필요하다. 그리고 Swift 컴파일러와 그에 필요한 환경을 가지고 있는 Xcode도 필요하다. 예전에는 iOS나 Mac OS X 앱을 만드는 것 뿐만 아니라 테스트 해보기 위해서도 애플 개발자 프로그램에 멤버쉽으로 등록을 하고 연간 일정액을 지불해야만 Xcode를 내려받고 코딩을 해 볼 수 있는 시절도 있었다. 그러나 이제는 그럴 필요가 없다. 그냥 애플 개발자 프로그램(Apple Developer Program) 사이트(https://developer.apple.com)에 접속해서 프로그램을 내려 받던지, 이것도 귀찮다면 Mac OS X 이 설치된 컴퓨터에 .. 더보기
[PYTHON] Python을 이용한 웹사이트 스캐너 만들기 - 7. 완결편 이번 시간에는 그동안 만들어 둔 함수들을 가지고 종합적으로 다루어 보도록 하겠습니다. 1편 소개편에서 말씀드린것 처럼 이것을 가지고 자신에게 보다 더 유용한 방향으로 수정, 편집해서 사용하시면 도움이 되리라 봅니다. 그럼 시작해보겠습니다. 1. 가장 처음 만들어 둔 main.py로 이동을 합니다. 여기에서 위와 같이 앞에서 만든 함수들을 불러옵니다. 2. ROOT_DIR 를 'sites' 라는 이름으로 지정을 해주었습니다. 향후 이 'sites' 폴더 밑에 각 사이트의 정보가 쌓이게 될 것입니다. 3. ROOT_DIR을 만들어 줄 것입니다. 아직 create_dir 함수를 정의하지 않았는데, 이는 아래에서 다룰 예정입니다. 4. 이제까지 만든 함수들을 종합적으로 다룰 함수 'gather_info'를 정의.. 더보기
[PYTHON] Python을 이용한 웹사이트 스캐너 만들기 - 5. robots.txt 이번 시간에는 robots.txt 에 대해 알아보려고 합니다. robots.txt 파일이 어떤 역할을 하냐면, 웹을 만들때 구글이나, 야후, 네이버, 다음과 같은 검색엔진에서 크롤링(사이트를 프로그램으로 자동 저장하는것)을 하는데 이때 민감한 페이지나 관리자 페이지 같은것은 크롤링 하지 못하게 텍스트 파일 형태로 작성해 둔 것입니다. 보다 자세한 사항은 Robots.txt 링크를 참조하시면 이해하실 수 있을것 입니다. 자 그럼 시작해 보겠습니다. 1. 우선 robots_txt.py 파일을 만들어 주고 import urllib.request 를 작성해 줍니다. urllib 와 request 는 웹과 관련된 파이썬 모듈입니다. 2. io 또한 임포트 해줍니다. 3. get_robots_txt 함수를 정의하고.. 더보기