- Today
- Total
Phantom
우선 방식을 이렇게 하려한다 1개의 사이트, 개수지정 크롤링 1개의 사이트, 키워드 기반 개수 지정 크롤링 N개의 사이트, 키워드 기반 개수 지정 크롤링 필터링 작업 및 Visualizing 나는 먼저 보안뉴스를 크롤링 대상으로 정했다. 사이트에 들어가 보면 각 기사들이 나열 되는데 이 부분을 크롤링 할 것이다. 많은 컨텐츠가 필요한것이 아니기때문에 크롤링 방식은 RSS 피드를 긁어올것이다. 이 부분에서 title, link, date를 긁어올것이다. scrapy shell로 테스트 결과 바로 200 OK response가 오므로 굳이 리퀘스트정보는 조사할 필요가 없을것 같다. 값도 있겠다 이제 프로그래밍을 해준다. items.py pipelines.py settings.py에 다음 라인 추가 DEFAU..
이제 웹을 공부하려는데 원래는 막연히 CTF 사이트를 만들까 생각을 했다. 그러다 보안프로젝트에서 보안뉴스 모음을 자주 스크랩해 페이스북에 자주 보였다. 저걸 자동화해볼까? 라는 생각에 한번 웹공부를 해가며 만들어 볼 생각이다.
간단한 리버싱 패턴을 분석한 글을 적고자 한다. 우선 scanf, printf 같은것들은 생략하기로 한다. 컴파일 옵션은 다음과 같다. gcc -m32 -fno-stack-protector -mpreferred-stack-boundary=2 -z execstack -fno-pie -o --------------------if_elseif_elseif_elseif_elseif_elseif_elseif_elseif_elseif_elseif_elseif_elseif_elseif_elseif_else-------------------- 간단히 if ifelse else 세가지만 처리해봤다. 함수 프롤로그 이후 scanf로 한개를 입력받는다. 그 후에 ebp-0x4에 있는데이터를 eax로 옮기며 분기문을 시작한다..