질문과 답변, 세팅정보 및 오류정보를 최대한 상세히 남겨주시면 보다 빠르고 정확한 답변을 드릴 수 있습니다.
중첩되는 질문이 없는지 확인하신 후 오류발생 페이지의 URL을 기입하여 질문해주세요. 그리고 질문에 대해 해결된 사항은 답변을 달아주시면 다른 회원님에게 좋은 자료가 됩니다.
  • 제   목 외부스케줄러....문제가 잇네요....
  • 작성자 최일섭 등록일 2012-03-02/14:15 조회수 990
안녕하세요.
 
다름이 아니라, 지금 홈페이지 속도가 심각하게 느려져서
호스팅업체에 문의를 하였더니 서버상의 문제가 아니라
메인페이지에 있는 외부스케줄러때문이라는 결과를 받았는데요...
 
이럴수도있나요??
SNS google
  • No Image
    1. 회원등급: 일반회원
    2. 작성글: 16개
    3. 작성댓글수: 13개
    4. 로그인: 83회
    5. 접속상태: 로그아웃
    6. 가입일: 2011-12-27
로그인 하시면 댓글을 남길 수 있습니다.
타인의 명예를 훼손 또는 비방, 개인정보 유출 및 광고성 게시물을 삼가해 주세요.
  • (2012.03.02/20:13:57) 답변
  • 가능성이 0%라고는 말씀드릴 수 는 없습니다.
    프로그래밍의 알고리즘 또는 메모리 누수등의 문제가 아니구요~
    바로 구글검색로봇과 같은 뛰어난 정보수집의 능력을 가진 검색로봇 때문에 그러할 수 있습니다. 년월 내용을 자동으로 검색하면서 외부캘린더의 페이지를 무작위 이동할 개연성이 있습니다.
    이 때는 루트디렉토리에 robots.txt를 활용해 특정 페이지를 검색로봇의 활동을 제한하는 방법이 있습니다.
    아래와 같은 소스를 robots.txt를 루트디렉토리에 존재토록 하여 사용하여 보세요~
    물론 웹페이지 상의 디렉토리의 경로는 회원님의 웹사이트에 갤린더를 출력하는 경로로 변경하시면 됩니다.(스케쥴 추출이 아닙니다.)
    ji_num=42 여기서 42는 캘린더 게시판의 고유코드 이오니 참고하여 고객님의 코드로 변경하여 사용하시면 됩니다.

    User-agent: *
    Disallow: /webpage/05community/list.asp?ji_num=42
    Disallow: /webpage/05community/list.asp?sc_year
    Disallow: /skin/
  • (2012.03.03/07:03:02) 답변
  • 한가지 추가적인 사항을 말씀드리자면 검색엔진마다 다르겠지만 robots.txt 파일의 크롤러 액세스타임이 1~2일 소요될 수 있습니다. 다시말씀드리면 적용기간이라 보시면 되겠습니다.
이전글 ▲ :
권한설정
다음글 ▼ :
한개의 DB로 두개 게시판?