- Crawlering을 위해서는 외부 url를 file_get_contens , curl 함수를 직접 사용해서 웹페이지를 가져와야 한다.
- 여기서 가져온 페이지를 html 파싱하기 위해서는 simplehtmldom 라이브러리를 이용하여 크롤링한 웹 페이지의 데이터를 파싱해 불수 있다.
- 정기적인 크롤링을 위해서는 crontab등 예약작업을 걸어 시간별로 데이타를 받아올수 있다.
skill list
- Google map 길찾기
- Web Crawler in PHP
- map ajax Examples
- Naver blog 글쓰기 API설정
- Seed128 + CBC mode + PKCS5 암호화 & 복호화
- google map API Cluster
- Google API Map/3D
- Google API Map - KML / KML+DB
- 기상청 weather XML
- 스키장 weather API
- Google Analytics API
- QR Code - PHP 코딩하기
- image zoom with jQuery
- Google Gears API
- facebook 연동
- V world map(브이월드)
- 실기간 환율 htmlparser
- 마젠토 솔루션
- 결제/개인정보 조회모듈
- CDN 서버 이용
- Bubble sort 알고리즘
- snoopy test