我试图找到某种药膏的“最佳”用量,以尽量减少患者出现皮疹的天数。然而,乳膏剂量的数据是 0、0.25、0.5、0.75 和 1 值(在某种规模上,例如 50 毫升)。我正在尝试使用这些离散值建立回归模型并在连续范围内找到最佳值(即在这些离散值之外,[要应用的最佳奶油量可能是 0.37])。我还希望能够根据连续的药膏剂量输入预测患者出现皮疹的天数(例如,如果使用 0.65 的剂量,患者会出现皮疹 4 天)
目前,我正在执行适用于连续因变量的回归分析,例如套索回归。然后使用我建立的模型,我使用连续输入到小数点后 2 位 [0,0.01, 0.02, .... 0.98, 0.99, 1] 来预测患者出现皮疹的天数时间来查看哪个始终产生最少的皮疹天数。
我不确定这是否是正确的方法,任何确认/指导将不胜感激。