<?xml version="1.0" encoding="UTF-8" ?>
<rss version="2.0">
	<channel>
				<title><![CDATA[k보드 게시물 얼마까지 커버 가능한가요...?]]></title>
		<link>https://www.cosmosfarm.com/threads/rss/document/4830</link>
		<description><![CDATA[<p>안녕하세요 스레드봇님,</p>

<p>제로보드를 사용하다가 k보드로 옮기고 있는중입니다.</p>

<p>DB를 옮기다가 보니 게시판의 DB가 4십만개가 넘어 가더군요.</p>

<p>제로보드 4에서는 5000개 정도 단위로 잘라서 쿼리를 해서 게시물이 많아지더라도</p>

<p>느려지는 현상이 없었는데, k보드는 십만개가 넘어가니까 느려지는 것 같습니다.</p>

<p>단순히 저희 서버가 느려서 것일까요?</p>

<p>아니면 이에 대해 고민하여 만들어진 게시판인가요?</p>

<p>알고 싶습니다. 십만개에서 느려지기 시작하는데 4십만개면 얼마나 느려질지 모르겠습니다...</p>

<p>그리고 한 가지 더 질문이 있습니다.</p>

<p>만약 게시물이 많아지는 것을 고려하지 않고 만드신거라면</p>

<p>게시물 테이블을 kboard_board_contents 에서 여러개로 나누는 것이 가능할까요?</p>

<p> </p>

<p>요약하여 다시 질문드립니다. 2가지입니다.</p>

<p>1. 대용량 게시물을 돌리기에 적합하도록 설계되어 있는지요?</p>

<p>2. 1번의 대답이 '아니오'이면 게시판 테이블( kboard_board_contents)을 여러개로 나눠도 될런지요.</p>

<p>항상 건강 관리 잘 하시고 답변 부탁드립니다.</p>
]]></description>
		<copyright>Copyright 2026, 코스모스팜</copyright>
				<item>
			<title><![CDATA[배준석님 답변 감사합니다.

배준석님의 답변을 듣고 서버 DB의 문제인가를 확인하여 서버 쿼리 캐시 관...]]></title>
			<link>https://www.cosmosfarm.com/threads/document/4845</link>
			<description><![CDATA[<p>배준석님 답변 감사합니다.</p>

<p>배준석님의 답변을 듣고 서버 DB의 문제인가를 확인하여 서버 쿼리 캐시 관련하여 세팅을 하였는데 문제는 해결되지 않았습니다.</p>

<p>show status like "qcache%";</p>

<p>의 명령어로 확인 결과</p>

<p> +-------------------------+-----------+<br />
| Variable_name           | Value     |<br />
+-------------------------+-----------+<br />
| Qcache_free_blocks      | 2         |<br />
| Qcache_free_memory      | 227385824 |<br />
| Qcache_hits             | 743       |<br />
| Qcache_inserts          | 402       |<br />
| Qcache_lowmem_prunes    | 0         |<br />
| Qcache_not_cached       | 92        |<br />
| Qcache_queries_in_cache | 373       |<br />
| Qcache_total_blocks     | 798       |</p>

<p>로 세팅을 하였지만, 느려지는 현상은 완화되지 않았습니다.</p>

<p>그리고 kboard에서 쓰는 쿼리를 직접 콘솔로 접속하여 실행에 보았습니다.</p>

<p>결과는 1.20초대로 여러번 쿼리한 결과 거의 동일하게 나왔습니다.</p>

<p>작성한 쿼리는 아래와 같습니다.</p>

<p>SELECT * FROM `kboard_board_content` WHERE `board_id`='6' AND `notice` LIKE '' ORDER BY `date` DESC LIMIT 30000,10;</p>

<p>이 쿼리에서 조금 씩 변경하여서 쿼리를 실행해 보았습니다.</p>

<p>무엇이 문제일까요? 아직 서버에서 세팅할게 더 남아 있을까요?</p>

<p> </p>
]]></description>
			<author>chobo</author>
			<pubDate>Mon, 02 Mar 2015 02:29:48 +0000</pubDate>
			<category>KBoard</category>
		</item>
				<item>
			<title><![CDATA[저도 평범한 유저인데요,

잘 아시겠지만 db데몬이 텍스트 레코드는 5개가 되건 5천만개가 되건 어차피 ...]]></title>
			<link>https://www.cosmosfarm.com/threads/document/4839</link>
			<description><![CDATA[<p>저도 평범한 유저인데요,</p>

<p>잘 아시겠지만 db데몬이 텍스트 레코드는 5개가 되건 5천만개가 되건 어차피 디스크에 저장합니다.</p>

<p>쿼리만 메모리에서 동작하면되겠고요, 엔진이 어떤것인지 모르지만 Select가 많으면 쿼리쪽을</p>

<p>Insert와 update가 많으면 엔진의 종류를 바꿔보는 것이 좋겠지요.</p>

<p>잘 아시겠지만, 이런 부분은 Kboard나 워드프레스의 문제가 아니라 순수하게 서버단 db 환경의 문제로 귀결됩니다.</p>

<p>말씀하신 보드류나 K보드, 워드프레스로 차원이 아니라 서버단 io로드와 리프레시 비율에 따라 세팅하시면 되고요,</p>

<p>한 일 이주 러닝시켜보시고 mysql -e "show variables like 'query_cache_%'"해서 보시고 설정하시면 되겠고요,</p>

<p>쿼리캐시는 리프레시 비율에 따라 용량을 적절히 설정하지 않으면, 커도 엔진에 따라 역효과가 날수도 있으니 엔진과 같이 튜닝하시면 됩니다.</p>

<p>그리고 "5천개 단위로 잘라서 저장" &lt;= 이건 그렇게 하시기 원하시면 직접 별도의 id를 추가 생성하는 식으로 개조 하시면 되겠지만</p>

<p>요즘의 db환경에서는 굳이 그렇게 하실 필요까지는 없으실거예요.</p>

<p>워드프레스.org 사이트의 수억개의 게시글에 대해 우리가 불편을 느끼지는 않는.. 그런 식입니다.</p>

<p>좋은 결과가 있기 바랍니다.</p>

<p> </p>

<p>좋은 플러그인 만들어주셔서 감사합니다.</p>
]]></description>
			<author>배준석</author>
			<pubDate>Sat, 28 Feb 2015 01:55:55 +0000</pubDate>
			<category>KBoard</category>
		</item>
			</channel>
</rss>