<table style="border:1px solid #adadad; background-color: #F3F1EC; color: #666666; padding:8px; -webkit-border-radius:4px; border-radius:4px; -moz-border-radius:4px; line-height:16px; margin-bottom:6px;" width="100%">
        <tbody>
                <tr>
                        <td><span style="font-family:Helvetica, sans-serif; font-size:20px;font-weight:bold;">PsyPost – Psychology News</span></td>
                </tr>
                <tr>
                        <td> </td>
                </tr>
        </tbody>
</table>
<table style="font:13px Helvetica, sans-serif; border-radius:4px; -moz-border-radius:4px; -webkit-border-radius:4px; background-color:#fff; padding:8px; margin-bottom:6px; border:1px solid #adadad;" width="100%">
        <tbody>
                <tr>
                        <td><a href="https://www.psypost.org/new-research-suggests-the-conservative-mental-health-advantage-is-an-myth/" style="font-family:Helvetica, sans-serif; letter-spacing:-1px;margin:0;padding:0 0 2px;font-weight: bold;font-size: 19px;line-height: 20px;color:#222;">New research suggests the conservative mental health advantage is an myth</a>
                        <div style="font-family:Helvetica, sans-serif; text-align:left;color:#999;font-size:11px;font-weight:bold;line-height:15px;">Jul 3rd 2025, 10:00</div>

                        <div style="font-family:Helvetica, sans-serif; color:#494949;text-align:justify;font-size:13px;">
                        <p><p>For years, surveys have suggested that political conservatives in the United States tend to report better mental health than liberals. These differences have sparked debates in popular media and academic circles alike, fueling theories about ideology, worldview, and emotional resilience. But a new study published in <em><a href="https://doi.org/10.1371/journal.pone.0321573" target="_blank">PLOS One</a></em> challenges the idea that this gap reflects a real difference in mental well-being. Instead, the researchers found that the wording of the question—specifically, whether people are asked about their “mental health” or “overall mood”—can dramatically shift the results. </p>
<p>The study was conducted by political scientist <a href="http://www.brianfschaffner.com/" target="_blank">Brian F. Schaffner</a> at Tufts University and his colleagues, including a team of undergraduate students. They set out to understand the persistent and well-publicized finding that conservatives tend to rate their mental health more positively than liberals. This pattern has been widely reported in American survey data for decades. But the research team wondered whether these results reflect genuine differences in well-being—or if they might be skewed by how people interpret and respond to survey questions.</p>
<p>The research was inspired by “three students in my lab (who ended up as co-authors on the article),” explained Schaffner, the Newhouse Professor of Civic Studies in the Department of Political Science.”They had taken a course on American conservatism taught by one of my colleagues in which they had learned about the finding that conservatives are generally happier and have better mental health than liberals.” </p>
<p>“The students had some doubts about that finding and were particularly interested in whether conservatives may be overstating how good their mental health was when answering surveys. So we decided to work together on this project to try to better understand the gap between conservatives and liberals when it comes to well being.”  </p>
<p>The researchers conducted two related studies. The first used data from the 2022 Cooperative Election Study, which surveyed 60,000 American adults about their mental health, ideology, and a wide range of life circumstances. The second was a randomized experiment conducted as part of the 2023 Cooperative Election Study, which asked 1,000 participants to rate either their mental health or their overall mood. The goal was to see whether changing the language of the question would affect the ideological gap.</p>
<p>In the first study, participants were asked to rate their mental health on a five-point scale ranging from “poor” to “excellent.” The researchers then compared responses across the ideological spectrum, while also controlling for more than two dozen variables that could affect well-being—such as age, income, religion, education, marital status, and recent life events. These controls allowed the team to separate the influence of political ideology from other factors that are often tied to both mental health and political orientation.</p>
<p>As expected, conservatives were more likely than liberals to rate their mental health as good or excellent. Moving from the most liberal to the most conservative end of the ideological scale was associated with a 19-percentage-point increase in the likelihood of reporting high mental health. However, after controlling for demographic and socioeconomic variables, the gap shrank to 11 percentage points. This means that nearly 40% of the ideological difference could be explained by factors like age, religious involvement, and economic stability—traits that tend to be more common among conservatives and are also linked to better self-reported mental health.</p>
<p>But even after these adjustments, ideology remained one of the strongest predictors of mental health ratings in the dataset. The researchers found that being conservative was as influential as other known factors like regular church attendance or being older. On the negative end of the spectrum, factors such as experiencing a recent crime, visiting the emergency room, or being unable to cover an unexpected expense were strongly associated with worse mental health ratings.</p>
<p>These results aligned with past research showing a persistent mental health advantage for conservatives. But they didn’t answer an important question: do liberals and conservatives interpret and respond to the phrase “mental health” in the same way?</p>
<p>To explore this, the researchers designed a follow-up experiment. They recruited a nationally representative sample of 1,000 adults and randomly assigned each participant to one of two groups. One group was asked the same mental health question used in the earlier survey. The other group saw an identical question, except the phrase “mental health” was replaced with “overall mood.” This subtle change was designed to see whether the ideological gap would remain when a less politically loaded term was used.</p>
<p>Among those asked about their mental health, conservatives were much more likely than liberals to give positive assessments. But among those asked about their overall mood, the difference disappeared. In fact, conservatives were slightly less likely to rate their mood as excellent or very good compared to liberals, although this difference was not statistically significant.</p>
<p>“I thought that we would see a smaller gap in conservative versus liberal responses to the overall mood question, but I did not expect that the gap would disappear entirely,” Schaffner told PsyPost. “It was quite striking to see how similarly liberals and conservatives assessed their overall mood given the large differences in how they rated their mental health.”</p>
<p>The shift was especially pronounced among conservatives. When asked about their mental health, 64% rated it as excellent or very good. But when asked about their mood, only 49% of conservatives gave similarly high ratings. Liberals, on the other hand, gave nearly identical ratings in both conditions. This pattern suggests that conservatives may inflate their self-reported mental health—possibly due to social stigma around the term.</p>
<p>Why would the phrase “mental health” provoke different responses? The researchers point to existing literature on stigma and political ideology. Conservative values tend to emphasize self-reliance, strength, and personal responsibility. These traits can lead to discomfort with acknowledging mental health struggles, which are sometimes seen as signs of weakness or failure. </p>
<p>People who hold these beliefs may downplay their symptoms or avoid the label of “mental illness.” In survey settings, this could mean rating their mental health more positively than they truly feel, especially if they see the term as stigmatized or politically loaded.</p>
<p>“What we found is that the conservative-liberal gap disappears entirely when the question is about overall mood instead of mental health, something that we hypothesize happens because conservatives are answering the question about ‘overall mood’ more honestly than the one about ‘mental health,'” Schaffner said.</p>
<p>This research has important implications for how we interpret survey data on mental health and well-being. It suggests that some of the ideological differences reported in past studies may be shaped by how respondents interpret key terms rather than reflecting real psychological differences. The phrase “mental health” might trigger defensiveness or social desirability among conservatives, leading to artificially inflated ratings. By contrast, the more neutral term “overall mood” may allow for more honest responses across the political spectrum.</p>
<p>But that doesn’t mean there are no real ideological differences in well-being. Conservatives might still have advantages in long-term resilience or coping strategies tied to their worldview. Or liberals might be more emotionally affected by social injustice or political events. But these findings underscore the importance of language in psychological research, especially in politically polarized environments.</p>
<p>“This is just one experiment that it would be wonderful to see replicated,” Schaffner noted. “Additionally, the term ‘overall mood’ is not perfectly synonymous with ‘mental health’ even though they are closely related, so it is possible that there really is an ideological gap in mental health but not for overall mood.”</p>
<p>Looking ahead, “I would like to test more directly whether and how conservatives stigmatize mental health and how that might affect the way they report on this in surveys or even in conversations with other people,” Schaffner added.</p>
<p>The study, “<a href="https://doi.org/10.1371/journal.pone.0321573" target="_blank">Do conservatives really have better mental well-being than liberals?</a>,” was authored by Brian F. Schaffner, Thomas Hershewe, Zoe Kava, and Jael Strell. </p></p>
                        </div>

                        <div style="font-family:Helvetica, sans-serif; font-size:13px; text-align: center; color: #666666; padding:4px; margin-bottom:2px;"></div>
                        </td>
                </tr>
        </tbody>
</table>
<table style="font:13px Helvetica, sans-serif; border-radius:4px; -moz-border-radius:4px; -webkit-border-radius:4px; background-color:#fff; padding:8px; margin-bottom:6px; border:1px solid #adadad;" width="100%">
        <tbody>
                <tr>
                        <td><a href="https://www.psypost.org/fact-check-does-cheese-cause-nightmares-heres-what-the-science-actually-says/" style="font-family:Helvetica, sans-serif; letter-spacing:-1px;margin:0;padding:0 0 2px;font-weight: bold;font-size: 19px;line-height: 20px;color:#222;">FACT CHECK: Does cheese cause nightmares? Here’s what the science actually says</a>
                        <div style="font-family:Helvetica, sans-serif; text-align:left;color:#999;font-size:11px;font-weight:bold;line-height:15px;">Jul 3rd 2025, 08:00</div>

                        <div style="font-family:Helvetica, sans-serif; color:#494949;text-align:justify;font-size:13px;">
                        <p><p>For years, popular culture has entertained the idea that eating cheese before bed might lead to bizarre or unsettling dreams. From cartoons like <em>Dream of the Rarebit Fiend</em> to internet folklore, cheese has often been blamed for nighttime horrors. Recently, this notion resurfaced in the headlines after <a href="https://www.frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2025.1544475/full" target="_blank">a new study</a> reignited the debate—suggesting there might be some scientific basis behind the age-old belief.</p>
<p>Media outlets didn’t hesitate to dramatize the story. <em>NBC News</em> asked, “Can cheese turn your dreams into nightmares?” while <em>People.com</em> reported, “Eating Cheese Before Bed May Cause Nightmares, Study Finds.” <em>IFLScience</em> put it bluntly: “We Regret To Inform You That Cheese Really Can Cause Nightmares.” Other outlets, including <em>Gizmodo</em> and <em>The Independent</em>, ran similarly eye-catching headlines.</p>
<p>These articles appeared after the journal <em>Frontiers in Psychology</em> released a press statement with the title: “<a href="https://www.frontiersin.org/news/2025/07/01/cheese-may-really-be-giving-you-nightmares-scientists-find-frontiers-psychology" target="_blank">Cheese may really be giving you nightmares, scientists find</a>.” In it, researchers suggested that consuming dairy, particularly among people with lactose intolerance, might be associated with more disturbing dreams. But how accurate are these bold headlines? And what exactly did the study find?</p>
<p>The research, led by Tore Nielsen of the Université de Montréal, aimed to explore the connections between food, sleep quality, and dream experiences. Building on earlier work that hinted at a link between dietary habits and sleep patterns, the new study focused specifically on the question of whether certain foods might influence dream content—especially nightmares.</p>
<p>To examine these questions, the researchers surveyed over 1,000 undergraduate students at MacEwan University in Canada. Participants were asked about their dietary habits, sleep quality, dream recall, and the perceived influence of food on their sleep and dreams. The survey also gathered detailed information on their health status, psychological well-being, and any food allergies or intolerances they might have.</p>
<p>About a third of participants reported some form of food sensitivity, with lactose intolerance being one of the most common. Nearly 16% said dairy products, such as cheese or milk, made their sleep worse, and over 20% blamed dairy for disturbing or bizarre dreams. Overall, just over 5% of participants said they had personally noticed that eating certain foods affected their dreams, a phenomenon the researchers labeled “food-dependent dreaming.”</p>
<p>To better understand these perceptions, the researchers asked those participants to identify which food groups they believed influenced their dreams. Sweets and desserts topped the list, followed by dairy. Most people who reported food-dependent dreaming said it led to more vivid, strange, or disturbing dreams. Fewer participants said that food led to pleasant or lucid dreams.</p>
<p>The researchers then examined whether these subjective reports were supported by broader patterns in the data. They found that participants who reported food-dependent dreaming also tended to experience more frequent nightmares. Additionally, nightmares were more common among people with lactose intolerance and food allergies. Importantly, statistical analyses showed that this relationship could often be explained by the presence of gastrointestinal symptoms, such as bloating or stomach pain, which might disrupt sleep and contribute to more intense or negative dream experiences.</p>
<p>To explore this idea further, the researchers used a method called mediation analysis. This allowed them to test whether gastrointestinal distress might be the link between lactose intolerance and nightmares. The results supported this idea: people with lactose intolerance were more likely to have stomach discomfort at night, which was in turn associated with more frequent and intense nightmares. The researchers also found that people who ate late at night—especially those who reported snacking after dinner or waking up to eat—tended to have poorer sleep and more disturbing dreams.</p>
<p>Notably, the researchers did not find that simply eating dairy caused nightmares in everyone. Rather, the effects seemed to be most pronounced among those with lactose intolerance or food allergies. This suggests that the popular belief about cheese and bad dreams may have a kernel of truth, but the real story is more nuanced. It’s not that cheese itself is inherently nightmare-inducing—it’s that for some people, consuming dairy can lead to physical discomfort during sleep, which may influence the emotional tone and vividness of their dreams.</p>
<p>The study also supported a broader idea that diet and sleep are linked in meaningful ways. Participants who reported healthier eating habits tended to have more positive or vivid dreams, while those who ate more sweets or consumed food late at night were more likely to experience nightmares or poor sleep quality. The research adds to a growing body of evidence suggesting that dietary choices can shape not just our waking health, but our experiences during sleep as well.</p>
<p>But there are some limitations to consider. The study relied on self-reported data, which can be influenced by memory biases or cultural beliefs. The participants were all undergraduate students from a single Canadian university, which may limit how well the findings apply to other groups. The data were also correlational, meaning the researchers could not determine whether food caused the changes in dreams, or whether some third factor—such as stress or general health—was influencing both.</p>
<p>Another consideration is that cultural beliefs and folklore may shape how people interpret their dream experiences. The idea that cheese causes nightmares has been around for over a century, popularized in part by artists like Winsor McCay. The researchers note that such beliefs may lead people to blame dairy for bad dreams even when other factors are at play. This is known as the misattribution hypothesis.</p>
<p>In short, it is not accurate to say that cheese <em>causes</em> nightmares. To determine whether cheese actually causes nightmares, scientists would need to conduct a controlled experiment rather than a survey. This would involve randomly assigning participants to eat cheese or a non-dairy control food before bed, ensuring all other factors like sleep environment and timing are held constant.</p>
<p>But the results also shouldn’t be entirely dismissed, either. The study provides evidence of a link between dairy and nightmares that warrants additional investigation. </p>
<p>“We need to study more people of different ages, from different walks of life, and with different dietary habits to determine if our results are truly generalizable to the larger population,” Nielsen said in the press release. “Experimental studies are also needed to determine if people can truly detect the effects of specific foods on dreams. We would like to run a study in which we ask people to ingest cheese products versus some control food before sleep to see if this alters their sleep or dreams.” </p>
<p>The study, “<a href="https://doi.org/10.3389/fpsyg.2025.1544475" target="_blank">More dreams of the rarebit fiend: Food sensitivity and dietary correlates of sleep and dreaming</a>,” was authored by Tore Nielsen, Jade Radke, Claudia Picard-Deland, and Russell Arnold Powell.</p></p>
                        </div>

                        <div style="font-family:Helvetica, sans-serif; font-size:13px; text-align: center; color: #666666; padding:4px; margin-bottom:2px;"></div>
                        </td>
                </tr>
        </tbody>
</table>
<table style="font:13px Helvetica, sans-serif; border-radius:4px; -moz-border-radius:4px; -webkit-border-radius:4px; background-color:#fff; padding:8px; margin-bottom:6px; border:1px solid #adadad;" width="100%">
        <tbody>
                <tr>
                        <td><a href="https://www.psypost.org/scientists-just-uncovered-a-surprising-illusion-in-how-we-remember-time/" style="font-family:Helvetica, sans-serif; letter-spacing:-1px;margin:0;padding:0 0 2px;font-weight: bold;font-size: 19px;line-height: 20px;color:#222;">Scientists just uncovered a surprising illusion in how we remember time</a>
                        <div style="font-family:Helvetica, sans-serif; text-align:left;color:#999;font-size:11px;font-weight:bold;line-height:15px;">Jul 3rd 2025, 06:00</div>

                        <div style="font-family:Helvetica, sans-serif; color:#494949;text-align:justify;font-size:13px;">
                        <p><p>When something is repeated often, we tend to remember it better. But a new study published in <em><a href="https://journals.sagepub.com/doi/full/10.1177/09567976251330290" target="_blank">Psychological Science</a></em> has found that we may also mistakenly believe that repeated experiences happened longer ago than they actually did. Across six experiments involving hundreds of adults, researchers found that when an image or piece of information was presented multiple times, people consistently judged its first appearance as being further in the past than it really was. This illusion of time—called the “temporal repetition effect”—was surprisingly strong, distorting people’s memory of when something happened by as much as 25 percent.</p>
<p>This finding challenges a long-held assumption in psychology: that the vividness or strength of a memory helps us gauge how recently something happened. According to this idea, if a memory feels faint or unclear, we assume it happened a long time ago. If it feels fresh and clear, we assume it was more recent. But the results of this study suggest that things we remember well—precisely because they were repeated—might actually seem older in our memory.</p>
<p>The researchers were inspired by everyday experiences. “We all know what it is like to be bombarded with the same headline day after day after day. We wondered whether this constant repetition of information was distorting our mental timelines,” said study author <a href="https://www.cogdevlab.org/" target="_blank">Sami Yousif</a>, who will be an assistant professors at The Ohio State University after August 1.</p>
<p>Even if that headline first appeared just a few days ago, it might begin to feel like it happened weeks ago simply because of how often it has been repeated. This intuition led the researchers to ask whether repetition itself could create a distortion in how far back in time we think something happened.</p>
<p>To explore this idea, Yousif and his co-author — <a href="https://brynnsherman.github.io/" target="_blank">Brynn E. Sherman</a> — conducted a series of experiments using object images and online memory tasks. In the first experiment, 50 participants viewed a sequence of images of everyday objects, such as a stapler or a watering can. Some images were shown only once, while others were repeated across five blocks of trials. After viewing the sequence, participants were shown the same images again and asked to indicate when in the experiment they had first seen each one. They did this by moving a marker along a visual timeline.</p>
<p>The key design of the experiment allowed for a direct comparison: each repeated image was paired with a non-repeated image that had been shown right before it in the original sequence. This meant that both images were originally seen at nearly the same time. But despite this, participants consistently remembered the repeated images as having occurred earlier. This illusion remained strong even when participants successfully recognized the images, suggesting that memory accuracy for the items themselves wasn’t driving the effect.</p>
<p>The researchers also found that the more times an image was repeated, the stronger the illusion became. Images shown five times were remembered as having occurred even further back than those shown only two or three times. This pattern persisted across all seven sets of image conditions.</p>
<p>“We were surprised at how strong the effects were,” Yousif told PsyPost. “We had a hunch that repetition might distort temporal memory, but we did not expect these distortions to be so significant.”</p>
<p>To test whether this illusion was due to memory strategies or shortcuts—such as participants assuming that anything repeated must have come earlier—the researchers ran a follow-up version of the experiment with added survey questions. Participants were asked to describe their strategies and to estimate how often they relied on repetition when placing images in time. Although some participants reported using such strategies, these responses did not predict the strength of the illusion. That means the effect likely wasn’t the result of deliberate reasoning, but rather something deeper in how memory and time perception interact.</p>
<p>Another experiment ruled out the possibility that pauses between blocks of images, which might signal shifts in context or time, were responsible for the effect. When participants viewed the same kinds of repeated images without any breaks between blocks, the illusion remained just as strong.</p>
<p>A third experiment tested whether the illusion would still appear if people were told ahead of time that they would be asked to judge the timing of each image’s first appearance. Even when participants were explicitly warned to focus on when they saw an image for the first time, the repetition still caused them to misjudge when that first exposure occurred.</p>
<p>In a fourth experiment, the researchers had participants indicate during the viewing phase whether each image was “new” or “old” each time it appeared. This allowed the team to track which repetitions participants actually remembered. Again, the illusion held: the more times people remembered seeing an image, the more likely they were to place its first appearance earlier in time. A statistical analysis showed that it wasn’t just the number of times an image was shown, but the number of times it was remembered that mattered most.</p>
<p>To strengthen their results, the researchers changed the format in a fifth experiment. Instead of using a timeline, they showed participants two images—one repeated, one not—and asked which one they saw first. Even though the non-repeated image had always come first, participants chose the repeated image as having come first nearly 80 percent of the time.</p>
<p>Finally, in a sixth experiment, the team tested whether this effect held up over a longer period. Participants viewed image sequences across five days and returned three days later to complete the memory test. Even with this extended timeline, people continued to remember repeated images as having occurred earlier. This finding suggests that the illusion isn’t just a short-term quirk, but a lasting feature of memory that may shape how we recall events across days or even weeks.</p>
<p>This new research sheds light on a puzzling phenomenon: our sense of time doesn’t always match the calendar. The feeling that something happened “ages ago” may not be a reliable indicator of when it truly occurred, especially if that something was repeated many times. The study also highlights a gap in current memory theories. Many psychological models assume that stronger memories are perceived as more recent, but these results show the opposite.</p>
<p>“People should take away two things: (1) Time perception is illusory. That is, our sense of when things occurred is systematically distorted in predictable ways. (2) These distortions can be substantial, even if their causes are simple (i.e., the mere repetition of information),” Yousif said.</p>
<p>There are several possible reasons why this illusion happens, according to the researchers. One idea is that when an item is repeated, later presentations may “remind” us of the earlier ones, effectively reinforcing the memory of the first appearance and embedding it more deeply. Over time, this could make the initial event feel like it happened further in the past. Another idea is that our sense of when something happened is not stored directly in memory, but is instead reconstructed using cues such as repetition. In that case, repetition could trick us into thinking an event happened longer ago than it really did.</p>
<p>As with all research, there are some limitations. All the participants were English-speaking adults living in the United States, so the results may not apply to all cultures or age groups. And although the experiments were designed to mimic real-world memory experiences, they still took place in a controlled digital environment using images of objects, not complex or emotionally charged events.</p>
<p>Still, the researchers emphasized the consistency of the findings across different experimental designs. “We tested the phenomenon in a variety of different ways, and it was incredibly robust in all of those cases,” Yousif said. “This strikes us as a particularly strong effect.”</p>
<p>The researchers hope that future work will explore how this illusion affects different types of memories—like emotional events, social interactions, or news stories—and how it might influence decision-making, planning, and even public opinion. They also suggest studying whether the effect operates differently in children, older adults, or people with memory impairments.</p>
<p>“We remain interested in time perception at the scale of ordinary experience,” Yousif explained. “In other words, we really want to know what other factors influence how our mental timelines are shaped by our experience.”</p>
<p>The study, “<a href="https://doi.org/10.1177/09567976251330290" target="_blank">An Illusion of Time Caused by Repeated Experience</a>,” was published online on April 18, 2025.</p></p>
                        </div>

                        <div style="font-family:Helvetica, sans-serif; font-size:13px; text-align: center; color: #666666; padding:4px; margin-bottom:2px;"></div>
                        </td>
                </tr>
        </tbody>
</table>
<table style="font:13px Helvetica, sans-serif; border-radius:4px; -moz-border-radius:4px; -webkit-border-radius:4px; background-color:#fff; padding:8px; margin-bottom:6px; border:1px solid #adadad;" width="100%">
        <tbody>
                <tr>
                        <td><a href="https://www.psypost.org/ketogenic-diet-raises-brain-blood-flow-by-22-and-bdnf-by-47-in-new-study/" style="font-family:Helvetica, sans-serif; letter-spacing:-1px;margin:0;padding:0 0 2px;font-weight: bold;font-size: 19px;line-height: 20px;color:#222;">Ketogenic diet raises brain blood flow by 22% and BDNF by 47% in new study</a>
                        <div style="font-family:Helvetica, sans-serif; text-align:left;color:#999;font-size:11px;font-weight:bold;line-height:15px;">Jul 2nd 2025, 18:00</div>

                        <div style="font-family:Helvetica, sans-serif; color:#494949;text-align:justify;font-size:13px;">
                        <p><p>A new study published in <em><a href="https://doi.org/10.1210/clinem/dgaf207" target="_blank">The Journal of Clinical Endocrinology & Metabolism</a></em> found that a ketogenic diet significantly increased cerebral blood flow and the levels of a protein that supports brain health in cognitively healthy adults. The findings suggest that this dietary approach, often associated with weight loss and epilepsy treatment, may also enhance brain function in people without cognitive impairment.</p>
<p>Under normal dietary conditions, the brain relies heavily on glucose for fuel. However, when carbohydrate intake drops significantly, the body shifts into a metabolic state known as ketosis. In this state, the liver converts fat into ketone bodies—mainly β-hydroxybutyrate, acetoacetate, and acetone—which can cross the blood-brain barrier and serve as an alternative energy source for the brain. </p>
<p>A ketogenic diet is designed to mimic the effects of fasting by drastically reducing carbohydrate intake and increasing fat consumption. Typically, this type of diet provides around 70–75% of calories from fat, 20% from protein, and only 5–10% from carbohydrates. The goal is to shift the body’s metabolism toward fat oxidation and ketone production.</p>
<p>The rationale behind the study was based on emerging evidence that ketone bodies might not only serve as a backup fuel source for the brain but could also have direct benefits for brain health. Previous research has shown that individuals with mild cognitive impairment and Alzheimer’s disease often have difficulty using glucose effectively in the brain. Because ketones bypass some of the pathways affected in these conditions, they may help compensate for impaired glucose metabolism and restore energy balance. </p>
<p>In addition to acting as fuel, ketone bodies may also influence brain signaling pathways, inflammation, and the production of protective proteins such as brain-derived neurotrophic factor (BDNF), which supports neuron survival and synaptic function. The researchers wanted to find out if these benefits would also apply to cognitively healthy individuals. </p>
<p>To test their hypothesis, the scientists conducted a controlled trial involving 11 cognitively healthy adults who were between the ages of 50 and 70 and classified as overweight. Each participant completed two separate three-week dietary periods in a crossover design, meaning they tried both a ketogenic diet and a standard diet in different phases of the study. There was a one-week break between the two phases. The order of diets was randomized.</p>
<p>During the ketogenic diet phase, participants consumed a high-fat, low-carbohydrate diet designed to trigger the production of ketone bodies—molecules the body uses for energy when carbohydrate intake is limited. The diet was composed of approximately 75% fat, 20% protein, and only 5% carbohydrates. Participants were instructed on what to eat and monitored their blood ketone levels twice daily using a flash monitoring device. Those who did not achieve a certain level of ketones in the first week were excluded. During the standard diet phase, participants followed the Nordic Nutrition Recommendations, which emphasize a more conventional balance of carbohydrates, fats, and proteins.</p>
<p>To assess the impact of each diet, the researchers used a combination of advanced brain imaging techniques. At the end of each diet phase, participants underwent a brain scan using positron emission tomography (PET) to measure blood flow in different regions of the brain. Magnetic resonance imaging (MRI) scans were also performed to help align and interpret the PET data. On the same day as the PET scan, blood samples were collected to measure levels of the ketone molecule β-hydroxybutyrate and the neurotrophic protein BDNF.</p>
<p>The results showed that the ketogenic diet significantly elevated both ketone levels and brain-related outcomes. After three weeks on the ketogenic diet, participants’ blood levels of β-hydroxybutyrate increased more than twelvefold compared to the standard diet. This biochemical marker confirmed that participants had entered a state of nutritional ketosis. More importantly, cerebral blood flow was 22% higher on average during the ketogenic phase compared to the standard diet. This increase was observed across multiple regions of the brain and was measured with a high level of precision using PET imaging.</p>
<p>In addition to improved blood flow, the researchers found that levels of BDNF were 47% higher during the ketogenic diet phase. BDNF is a protein that plays a key role in the growth, maintenance, and survival of neurons. It is often described as “fertilizer” for the brain and is believed to support learning and memory. Reduced BDNF levels have been linked to neurodegenerative diseases such as Alzheimer’s. While previous research had shown that ketone supplements could increase BDNF in the short term, this study demonstrated that sustained nutritional ketosis can also elevate BDNF levels over time.</p>
<p>The study also found a strong correlation between blood ketone levels and cerebral blood flow across the two diet phases. In other words, higher ketone concentrations in the blood were associated with greater brain perfusion. This relationship adds further weight to the idea that ketone metabolism plays a direct role in improving brain function, even in the absence of cognitive deficits.</p>
<p>Although the sample size was small—only 11 participants completed the full protocol—the findings were consistent across individuals and backed by rigorous imaging and biochemical assessments. The authors noted that nine participants completed both PET scans, and BDNF data were available for ten participants. Importantly, no serious side effects were reported, and all participants successfully reached and maintained a ketotic state during the ketogenic phase.</p>
<p>The research builds on earlier findings from studies involving people with mild cognitive impairment or Alzheimer’s disease, who often experience decreased cerebral blood flow. In those populations, ketogenic diets or ketone supplements have been associated with improvements in brain energy metabolism and function. However, it was previously unclear whether the same benefits would extend to healthy individuals without signs of cognitive decline. This new study fills that gap by showing that a ketogenic diet can enhance both blood flow and neurotrophic support in people without existing brain disorders.</p>
<p>Low cerebral blood flow has been linked to future cognitive decline in both patients and healthy individuals. Several studies have shown that people with lower blood flow in certain brain areas are more likely to experience memory problems and reduced executive functioning over time. By increasing cerebral perfusion, a ketogenic diet might help protect against such decline, although more research is needed to confirm that possibility.</p>
<p>The researchers also highlighted the potential importance of BDNF in brain aging. BDNF helps regulate synaptic plasticity, the ability of the brain to adapt and reorganize itself, which is vital for learning and memory. Lower BDNF levels are commonly observed in people with moderate to severe Alzheimer’s disease. Raising BDNF through diet or other interventions might improve neural resilience and delay the onset of cognitive symptoms.</p>
<p>One of the study’s limitations is the small number of participants. While the crossover design helps control for individual variability, a larger sample size would be needed to confirm the generalizability of the results. Another limitation is that the study only included individuals who were overweight, which means the findings might not apply to people of normal weight or those with different metabolic profiles. Additionally, the intervention lasted just three weeks per diet phase. It is not yet known whether these effects would persist or grow stronger with longer-term adherence to a ketogenic diet.</p>
<p>Future research could explore whether similar improvements in cerebral blood flow and BDNF occur in other populations, such as people at risk of dementia, individuals with metabolic syndrome, or even younger adults. Studies could also examine whether these physiological changes translate into measurable improvements in cognitive performance. Finally, it would be useful to compare different types of ketogenic diets, such as those based on plant-based fats versus animal fats, to assess how various nutritional sources influence brain health.</p>
<p>The study, “<a href="https://doi.org/10.1210/clinem/dgaf207" target="_blank">A 3-Week Ketogenic Diet Increases Global Cerebral Blood Flow and Brain-Derived Neurotrophic Factor</a>,” was authored by Thien Vinh Luong, Kim Vang Hansen, Allan Kjeldsen Hansen, Stephen C. Cunnane, Niels Møller, Esben Søndergaard, Lars Christian Gormsen, and Mads Svart.</p></p>
                        </div>

                        <div style="font-family:Helvetica, sans-serif; font-size:13px; text-align: center; color: #666666; padding:4px; margin-bottom:2px;"></div>
                        </td>
                </tr>
        </tbody>
</table>
<table style="font:13px Helvetica, sans-serif; border-radius:4px; -moz-border-radius:4px; -webkit-border-radius:4px; background-color:#fff; padding:8px; margin-bottom:6px; border:1px solid #adadad;" width="100%">
        <tbody>
                <tr>
                        <td><a href="https://www.psypost.org/small-folds-in-the-brain-may-hold-key-insights-into-alzheimers-and-aging-related-cognitive-decline/" style="font-family:Helvetica, sans-serif; letter-spacing:-1px;margin:0;padding:0 0 2px;font-weight: bold;font-size: 19px;line-height: 20px;color:#222;">Small folds in the brain may hold key insights into Alzheimer’s and aging-related cognitive decline</a>
                        <div style="font-family:Helvetica, sans-serif; text-align:left;color:#999;font-size:11px;font-weight:bold;line-height:15px;">Jul 2nd 2025, 16:00</div>

                        <div style="font-family:Helvetica, sans-serif; color:#494949;text-align:justify;font-size:13px;">
                        <p><p>Tiny, shallow grooves on the surface of the brain may provide new insight into how aging and Alzheimer’s disease affect brain structure and cognitive function. A new study published in <em><a href="https://doi.org/10.1523/JNEUROSCI.1714-23.2024" target="_blank">The Journal of Neuroscience</a></em> found that these small indentations, known as tertiary sulci, show more pronounced thinning in older adults and individuals with Alzheimer’s disease than deeper, more prominent brain folds. Importantly, thinning in some of these sulci was closely linked to declines in memory and executive functioning.</p>
<p>Alzheimer’s disease is a neurodegenerative disorder marked by progressive memory loss and cognitive impairment, typically beginning in older adulthood. Researchers have long sought to understand the specific brain changes that underlie this decline. One area of interest is the cerebral cortex, the brain’s outer layer, which has a complex surface pattern made up of ridges (gyri) and grooves (sulci). These features are not just structural; they also relate to brain function and development. While larger sulci have been studied extensively in relation to aging and Alzheimer’s, smaller and more variable sulci have been largely ignored—until now.</p>
<p>The new study focused on these smaller grooves in a brain region known as the posteromedial cortex, or PMC. This area includes parts of the precuneus and the posterior cingulate, and it plays a key role in memory and other cognitive processes. It is also among the first brain regions affected by the buildup of amyloid and tau proteins, which are hallmarks of Alzheimer’s disease.</p>
<p>The research team, led by scientists at the University of California, Berkeley, used high-resolution brain scans to examine the sulci of 216 adults. The sample included 72 younger adults between the ages of 22 and 36, 72 cognitively healthy older adults aged 65 to 90, and 72 older adults with Alzheimer’s disease who were matched in age to the healthy older group. All participants underwent detailed structural brain imaging using magnetic resonance imaging, along with assessments of memory and executive functioning.</p>
<p>Unlike typical studies that rely on automated brain mapping, the researchers manually identified and labeled more than 4,000 sulci across the participants’ brain scans. This process was especially important because the smaller sulci, which the study targeted, often do not appear in average brain templates or automated maps. Each sulcus was labeled by trained experts using specialized software and reference atlases. The team focused on 12 specific sulci in the PMC, some of which were newly identified in recent years and not included in standard anatomical databases.</p>
<p>To measure changes in brain structure, the researchers calculated the thickness and depth of each sulcus. They then compared these measurements across the three participant groups. The data showed clear evidence of cortical thinning with age and disease, with the most dramatic changes found in the smallest and shallowest sulci. For example, two sulci known as the inframarginal sulcus (ifrms) and the ventral subsplenial sulcus (sspls-v) exhibited more pronounced thinning than any of the larger, deeper sulci. These findings were consistent across both hemispheres of the brain, although the right hemisphere showed slightly stronger effects in some comparisons.</p>
<p>Not only did these smaller sulci show greater atrophy, but their structural integrity was also more closely tied to cognitive performance. Using statistical models that could identify the most important predictors of memory and executive function, the researchers found that thinning in a handful of these sulci—particularly in the right hemisphere—was strongly associated with lower scores. These included both the newly described ifrms and sspls-v sulci, as well as some larger, more established grooves. The relationships were specific to cortical thickness; sulcal depth did not predict cognitive performance as strongly.</p>
<p>The results support an idea known as the retrogenesis hypothesis, which suggests that brain areas that develop later in life are also the first to decline in aging and disease. Because tertiary sulci are among the last to emerge during brain development and are found primarily in regions associated with higher-order thinking, they may be especially vulnerable to degeneration. Their involvement in cognition and their structural variability across individuals also make them compelling targets for future research into personalized risk and resilience factors in Alzheimer’s disease.</p>
<p>The study’s authors also note that their individual-level, high-resolution approach stands in contrast to many past studies, which rely on group-level brain averages that can obscure subtle but meaningful differences. By manually labeling sulci in each participant’s brain, the team was able to detect anatomical variations that might otherwise go unnoticed. This focus on individual variability could help explain why cognitive decline progresses differently across people, even among those with similar diagnoses.</p>
<p>The study provides evidence linking tertiary sulcal atrophy to cognitive decline, but there are some limitations. Because the sulci were manually labeled, the process was labor-intensive and limited the sample size compared to large-scale imaging studies. The findings are also based on cross-sectional data, meaning that each participant was studied at a single point in time. Longitudinal research will be needed to confirm how these sulci change over the course of aging and Alzheimer’s progression.</p>
<p>Another open question is why these small sulci are especially vulnerable. Some researchers speculate that their location in brain areas rich in long-range connections makes them more susceptible to degeneration, while others point to their thin cortical structure or their proximity to early sites of protein buildup. Future studies using postmortem data or advanced imaging techniques may help clarify these mechanisms.</p>
<p>The study, “<a href="https://doi.org/10.1523/JNEUROSCI.1714-23.2024" target="_blank">Defining Overlooked Structures Reveals New Associations between the Cortex and Cognition in Aging and Alzheimer’s Disease</a>,” was authored by Samira A. Maboudian, Ethan H. Willbrand, Joseph P. Kelly, William J. Jagust, Kevin S. Weiner and for the Alzheimer’s Disease Neuroimaging Initiative.</p></p>
                        </div>

                        <div style="font-family:Helvetica, sans-serif; font-size:13px; text-align: center; color: #666666; padding:4px; margin-bottom:2px;"></div>
                        </td>
                </tr>
        </tbody>
</table>
<table style="font:13px Helvetica, sans-serif; border-radius:4px; -moz-border-radius:4px; -webkit-border-radius:4px; background-color:#fff; padding:8px; margin-bottom:6px; border:1px solid #adadad;" width="100%">
        <tbody>
                <tr>
                        <td><a href="https://www.psypost.org/creativity-in-autism-may-stem-from-co-occurring-adhd-not-autism-itself/" style="font-family:Helvetica, sans-serif; letter-spacing:-1px;margin:0;padding:0 0 2px;font-weight: bold;font-size: 19px;line-height: 20px;color:#222;">Creativity in autism may stem from co-occurring ADHD, not autism itself</a>
                        <div style="font-family:Helvetica, sans-serif; text-align:left;color:#999;font-size:11px;font-weight:bold;line-height:15px;">Jul 2nd 2025, 14:00</div>

                        <div style="font-family:Helvetica, sans-serif; color:#494949;text-align:justify;font-size:13px;">
                        <p><p>For years, creativity has been celebrated as a possible strength in people with autism. From anecdotal reports of autistic savants to growing calls for strength-based education and employment programs, the idea that autism is linked to enhanced creativity has gained traction in research and popular media alike. But a new study published in the <em><a href="https://doi.org/10.1037/abn0000910" target="_blank">Journal of Psychopathology and Clinical Science</a></em> challenges this assumption. </p>
<p>After controlling for cognitive ability and attention-deficit/hyperactivity disorder, the researchers found that autistic adults did not differ from nonautistic adults in their ability to generate novel ideas. Where differences in creative accomplishments and behaviors did appear, they were better explained by co-occurring ADHD than by autism itself.</p>
<p>This study was designed to address gaps in previous research on creativity in autism. While earlier studies had hinted at a possible connection, most were based on small samples or on measures of autistic traits in the general population rather than on clinically diagnosed individuals. Some had found that people with more autistic traits came up with more original ideas in lab-based tasks, while others reported no such link. But few had examined creativity in autistic adults directly, and none had investigated how other factors—especially ADHD, which frequently co-occurs with autism and has also been linked to creativity—might account for observed differences.</p>
<p>To provide a more complete picture, the researchers recruited 352 adults in the United Kingdom, half of whom reported having a clinical autism diagnosis. The groups were closely matched on age, sex, and general cognitive ability, ensuring that any differences in creativity would not be explained by these variables. The study used a mix of performance-based and self-report measures to capture different aspects of creativity, including the ability to generate ideas, actual accomplishments, everyday behaviors, personality traits, and self-beliefs about being creative.</p>
<p>Participants completed a well-established divergent thinking task, which asked them to list as many alternative uses for a brick as possible within two minutes. This task is commonly used in psychological research to assess how fluently and flexibly a person can come up with ideas and how original those ideas are. The researchers also measured real-world creativity using self-report tools, including a questionnaire on specific achievements across domains like art, music, and writing; a checklist of creative behaviors over the past year; and scales measuring creative personality and self-efficacy.</p>
<p>The results were clear: autistic and nonautistic participants performed similarly on the divergent thinking task. They came up with roughly the same number of ideas, showed similar flexibility in the kinds of ideas they produced, and scored similarly on originality. This finding runs counter to the idea that autism is associated with greater creative thinking in lab-based tasks.</p>
<p>However, autistic participants did report higher levels of real-world creativity. They indicated more creative accomplishments, such as producing artwork or writing stories, and more engagement in everyday creative behaviors compared to their nonautistic peers. But when the researchers took a closer look, they found something important: these differences disappeared when ADHD was factored in. In other words, the elevated creativity reported by autistic individuals could be explained by whether or not they also had ADHD.</p>
<p>The researchers used both categorical and dimensional approaches to examine this relationship. They ran statistical models that considered whether a participant had a clinical ADHD diagnosis and also looked at continuous measures of ADHD traits. In both types of analyses, ADHD—but not autism—was consistently associated with higher creative output, both in terms of reported accomplishments and behaviors. Autism alone did not predict enhanced creativity, and in some cases, it was even linked to slightly lower creative personality and self-efficacy scores when traits were measured continuously.</p>
<p>These findings carry significant implications for how creativity is understood and discussed in relation to autism. While it’s possible that some autistic individuals may show creativity in specific areas, this does not appear to be a general feature of autism itself. Instead, it may be more accurate to describe creativity as a strength linked to ADHD—a condition that often co-occurs with autism—rather than as an intrinsic trait of autism.</p>
<p>The researchers also highlighted some potential reasons why previous studies may have produced conflicting or inconclusive results. Many earlier studies did not account for general cognitive ability, which is known to influence creativity. Others may have overlooked the role of ADHD, which can boost creativity through traits like impulsivity, reward sensitivity, and flexible thinking. Because ADHD is underdiagnosed, especially in adults and in those who also have autism, it’s likely that some participants in earlier studies had undetected ADHD that skewed the results.</p>
<p>Although autistic participants reported more creative behaviors and achievements, they did not rate themselves as having higher creative self-efficacy—that is, they did not express stronger beliefs in their own creative abilities. This could suggest a disconnect between actual creative output and how autistic individuals perceive themselves. The authors speculated that this may reflect broader difficulties with self-assessment and self-esteem that are common in autism, pointing to the potential value of interventions that help neurodivergent individuals recognize and build confidence in their strengths.</p>
<p>The study also emphasizes the need for more nuanced and individualized approaches to supporting strengths in neurodivergent populations. It cautions against broadly applying the idea of “autistic creativity” in clinical or educational settings without strong evidence. If creative strengths are only present in autistic individuals who also have ADHD, then programs designed to support creativity in autism should consider this variability. One-size-fits-all strategies may not serve the needs of the entire autistic community and could even create unrealistic expectations.</p>
<p>Despite the study’s strengths—including a large, well-matched sample, multiple validated measures, and preregistered analyses—there are some limitations. The researchers relied on self-reported diagnoses and did not independently verify clinical status using gold-standard assessments. They also focused on verbal measures of creativity, which may not capture all forms of creative expression, especially in autistic individuals with limited language skills. Additionally, the sample did not include autistic individuals with intellectual disability, so the results may not generalize to that group.</p>
<p>Future research could explore whether different types of creativity emerge in different contexts, such as when autistic individuals work within areas of personal interest or expertise. It may also be helpful to use nonverbal creativity tasks or investigate creativity across developmental stages and cultural backgrounds. Examining the cognitive and motivational pathways that underlie creativity in ADHD could also shed light on why this group consistently shows elevated creative output.</p>
<p>The study, “<a href="https://doi.org/10.1037/abn0000910" target="_blank">Enhanced Creativity in Autism Is Due to Co-Occurring Attention-Deficit/Hyperactivity Disorder</a>,” was authored by Emily C. Taylor, Małgorzata A. Gocłowska, Mitchell J. Callan, and Lucy A. Livingston.</p></p>
                        </div>

                        <div style="font-family:Helvetica, sans-serif; font-size:13px; text-align: center; color: #666666; padding:4px; margin-bottom:2px;"></div>
                        </td>
                </tr>
        </tbody>
</table>
<table style="font:13px Helvetica, sans-serif; border-radius:4px; -moz-border-radius:4px; -webkit-border-radius:4px; background-color:#fff; padding:8px; margin-bottom:6px; border:1px solid #adadad;" width="100%">
        <tbody>
                <tr>
                        <td><a href="https://www.psypost.org/cannabis-oil-might-help-with-drug-resistant-epilepsy-study-suggests/" style="font-family:Helvetica, sans-serif; letter-spacing:-1px;margin:0;padding:0 0 2px;font-weight: bold;font-size: 19px;line-height: 20px;color:#222;">Cannabis oil might help with drug-resistant epilepsy, study suggests</a>
                        <div style="font-family:Helvetica, sans-serif; text-align:left;color:#999;font-size:11px;font-weight:bold;line-height:15px;">Jul 2nd 2025, 12:00</div>

                        <div style="font-family:Helvetica, sans-serif; color:#494949;text-align:justify;font-size:13px;">
                        <p><p>A case study of 19 individuals with drug-resistant epilepsy who used cannabis oil found that the median duration of seizure freedom after starting treatment was 245 days. Five patients remained continuously seizure-free for more than a year. The study was published in <a href="https://doi.org/10.3389/fnins.2025.1570531"><em>Frontiers in Neuroscience</em></a>.</p>
<p>Epilepsy is a chronic neurological disorder marked by recurrent, unprovoked seizures caused by abnormal electrical activity in the brain. It can result from genetic factors, brain injury, infections, or sometimes for reasons that remain unknown. Seizures vary widely in type and severity, ranging from brief lapses in attention to full-body convulsions.</p>
<p>Treatment typically involves anti-seizure medications, which help most people manage their seizures effectively. Some individuals also benefit from dietary therapy, nerve stimulation, or surgery.</p>
<p>However, for a significant minority, standard treatments fail to adequately control seizures. When seizures persist despite at least two appropriately chosen and adequately trialed anti-seizure medications, the condition is classified as drug-resistant epilepsy.</p>
<p>Study author Frank Yizhao Chen and his colleagues conducted a retrospective case series examining seizure outcomes after patients with drug-resistant epilepsy began treatment with cannabis-based medicinal products in oil form.</p>
<p>The study included 19 individuals selected from a pool of 174 patients with drug-resistant epilepsy. All were treated at North Toronto Neurology, an outpatient neurology clinic in Toronto, Canada, through the clinic’s Medical Cannabis Program. Each patient received authorization for medical cannabis use from the program’s neurologist.</p>
<p>The program begins with an educational session and initial consultation. If the patient is deemed medically suitable—meaning they do not have unstable cardiac, renal, hepatic, or psychiatric conditions—they are authorized to use cannabis oils in accordance with Canadian medical cannabis regulations.</p>
<p>The treatment protocol consists of five phases. It begins with cannabidiol (CBD)-only oils, with doses gradually increased until either seizure control is achieved or side effects become problematic. If CBD alone does not lead to sufficient improvement, delta-9-tetrahydrocannabinol (THC) is added while reducing the CBD dose. Patients are monitored regularly, and treatment is adjusted based on seizure response.</p>
<p>Researchers tracked seizure frequency before, during, and after cannabis oil treatment using patient- or caregiver-reported logs. Standardized seizure calendars were not used.</p>
<p>Results showed that 11 patients achieved seizure freedom without requiring changes to their initial cannabis oil regimen. An additional 7 patients became seizure-free within one week of starting treatment. Four patients required the addition of THC to their CBD-only regimen to achieve seizure control.</p>
<p>The median duration of each patient’s first seizure-free period was 211 days, with a range of 90 to 412 days. In total, the median cumulative seizure-free duration across patients was 245 days. Five patients achieved seizure freedom for at least one year.</p>
<p>Five patients were treated with CBD alone, while the remaining 14 used a combination of CBD and THC. The median CBD dose for the CBD-only group was 6.8 mg/kg/day, while those using both CBD and THC received a median CBD dose of 7.58 mg/kg/day. The median THC dose was 0.31 mg/kg/day.</p>
<p>Overall, 90% of patients reported improvements in quality of life. Among patients who were not continuously seizure-free but remained on cannabis oil, their monthly seizure frequency dropped by 69% compared to baseline.</p>
<p>“The results of the study support prioritizing CBPMs [cannabis-based products for medicinal use] in cases of DRE [drug-resistant epilepsy]. It also supports research into identifying clinical and biological biomarkers for DRE cases that may achieve SF [seizure freedom] under CBPM treatment. Lastly, the study supports improving the accessibility of CBPMs, using SF as a primary outcome in future CBPM epilepsy trials, and assessing the role of THC in reducing seizures,” the authors concluded.</p>
<p>The study highlights the potential of cannabis-based medicinal products to induce long-term seizure freedom in some individuals with drug-resistant epilepsy. However, it is important to note that this was not a controlled experimental study. There was no placebo group or blinding, and the findings rely on observational data. As such, it cannot be confirmed that the observed improvements were solely due to the cannabis treatment.</p>
<p>The paper, “<a href="https://doi.org/10.3389/fnins.2025.1570531">19 patients report seizure freedom with medical cannabis oil treatment for drug-resistant epilepsy: a case series</a>,” was authored by Frank Yizhao Chen, Joshua Myles Duckman, Brenden Samuel Rabinovitch, Katrin Julia Hannesson, and Evan Cole Lewis.</p></p>
                        </div>

                        <div style="font-family:Helvetica, sans-serif; font-size:13px; text-align: center; color: #666666; padding:4px; margin-bottom:2px;"></div>
                        </td>
                </tr>
        </tbody>
</table>
<p><strong>Forwarded by:<br />
Michael Reeder LCPC<br />
Baltimore, MD</strong></p>

<p><strong>This information is taken from free public RSS feeds published by each organization for the purpose of public distribution. Readers are linked back to the article content on each organization's website. This email is an unaffiliated unofficial redistribution of this freely provided content from the publishers. </strong></p>

<p> </p>

<p><s><small><a href="#" style="color:#ffffff;"><a href='https://blogtrottr.com/unsubscribe/565/DY9DKf'>unsubscribe from this feed</a></a></small></s></p>